Laravel · AI · PHP · Ollama · Prism

Porta l'AI
nella tua app Laravel

Chatbot, RAG su documenti, Text-to-SQL e agenti AI integrati nel tuo stack PHP Laravel — on-premise con Ollama o via API, GDPR compliant.

🐘
Native Laravel Prism PHP, Service Provider, Facades
🔒
On-premise con Ollama Dati mai fuori dall'infrastruttura
Streaming risposte UX fluida con SSE o WebSocket
🔗
Multi-modello Ollama, OpenAI, Anthropic, Mistral
Laravel 10 / 11
Prism PHP
Ollama on-premise
pgvector / ChromaDB
GDPR Compliant

Cosa puoi costruire con Laravel AI

Ogni funzionalità è progettata per integrarsi nel tuo progetto Laravel esistente senza stravolgere l'architettura.

💬

Chatbot contestuale

Chatbot integrato nella tua app Laravel che risponde in italiano usando i dati aziendali. Streaming SSE per UX fluida, memoria della conversazione via sessione o database.

📄

RAG su documenti

Pipeline completo: upload documenti → chunking → embedding → vector store (pgvector o Chroma) → retrieval → risposta. Tutto in Laravel, integrato con Ollama RAG.

🗄️

Text-to-SQL

Genera query SQL dal linguaggio naturale e restituisce risultati all'utente. Il modello conosce lo schema del tuo database e genera query sicure con protezione da injection.

🤖

Tool use / Function calling

Il modello AI invoca function Laravel definite da te: query database, chiamate API, invio email, aggiornamento record — con validazione e controllo degli accessi nativi Laravel.

📊

Analisi e classificazione

Classificazione automatica di ticket, email o feedback. Estrazione strutturata di dati da testo libero. Generazione automatica di riassunti e report.

🌐

API AI-ready

Esponi le funzionalità AI come endpoint API RESTful per il tuo frontend Angular, app mobile o altri sistemi interni.

Come integriamo AI nel tuo stack Laravel

Un approccio pragmatico che rispetta il tuo codice esistente e le best practice Laravel.

1

Analisi codebase

Reviwiamo la tua architettura Laravel, i modelli Eloquent, le API esistenti e i requisiti di privacy per progettare l'integrazione AI più adatta.

2

Setup LLM

Installiamo Ollama on-premise (o configuriamo le API cloud scelte), selezioniamo il modello ottimale e configuriamo Prism PHP o il client HTTP nativo.

3

Sviluppo feature AI

Implementiamo le funzionalità AI (chatbot, RAG, Text-to-SQL) come Service/Repository Laravel, con test unitari e di integrazione.

4

Deploy e ottimizzazione

Deploy in produzione, ottimizzazione delle performance (queue per task pesanti, caching, rate limiting), documentazione e handoff al team.

// Esempio: chiamata Ollama da Laravel con Prism PHP
use EchoLabs\Prism\Prism;
use EchoLabs\Prism\Enums\Provider;

$response = Prism::text()
    ->using(Provider::Ollama, 'llama3.2')
    ->withSystemPrompt('Sei un assistente aziendale in italiano.')
    ->withPrompt($userQuestion)
    ->generate();

return response()->json([
    'answer' => $response->text,
]);
Laravel 10/11 Prism PHP Ollama pgvector ChromaDB Laravel Queues Server-Sent Events Livewire Docker

Domande frequenti su Laravel AI

Tramite Prism PHP (libreria Laravel nativa per LLM), chiamate dirette all'API Ollama (per modelli on-premise), o via SDK OpenAI-compatible con qualsiasi LLM. Gaulin valuta l'architettura più adatta al tuo stack Laravel esistente, alle prestazioni richieste e ai vincoli di privacy del progetto.

Sì. Ollama espone un'API REST compatibile con il formato OpenAI, quindi si integra facilmente in Laravel tramite Http::post nativo o Prism PHP. Il modello LLM gira sul server on-premise, e Laravel lo interroga come un qualsiasi microservizio interno.

Un sistema RAG in Laravel prevede: (1) indicizzazione dei documenti con embedding in un vector store (pgvector su PostgreSQL, Qdrant, Chroma), (2) recupero dei chunk rilevanti via cosine similarity, (3) costruzione del prompt con il contesto recuperato, (4) invio al LLM e restituzione della risposta. Gaulin costruisce l'intero pipeline integrato nel tuo progetto Laravel.

Prism PHP è un'ottima scelta per un'interfaccia unificata verso più LLM (Anthropic, OpenAI, Ollama, Mistral). Offre tool calling, streaming, gestione del contesto e si integra con l'ecosistema Laravel. Per casi d'uso più complessi con orchestrazione multi-agent, Gaulin integra anche Python microservices con LangChain a fianco della app Laravel.

Dipende dal LLM scelto. Con Ollama on-premise i dati non escono mai dall'infrastruttura: piena conformità GDPR. Con API cloud (OpenAI, Anthropic) i dati vengono elaborati da provider terzi: è necessario verificare DPA e base giuridica. Gaulin consiglia e documenta la scelta architetturale in relazione ai requisiti di privacy.

Un'integrazione semplice (chatbot con RAG) in un'app Laravel esistente richiede tipicamente 2–4 settimane. Funzionalità più complesse come Text-to-SQL o agenti autonomi richiedono 4–8 settimane. Contattaci per una stima sul tuo codebase.

La tua app Laravel,
con l'intelligenza artificiale integrata

Mostraci il tuo progetto. In 30 minuti valutiamo l'integrazione AI più adatta al tuo stack e ai tuoi utenti.

Discuti il tuo progetto →