Laravel AI SDK: Der komplette Überblick für Entwickler
Laut der JetBrains-Studie "State of PHP 2025" haben 95 % der PHP-Entwickler bereits AI-Tools ausprobiert (JetBrains, 2025). Das Interesse ist da. Was bislang fehlte, war eine offizielle Laravel-Lösung. Am 5. Februar 2026 hat Taylor Otwell genau das geliefert: das Laravel AI SDK. In den ersten drei Wochen verzeichnete das Paket über 103.000 Downloads auf Packagist (Packagist, 2026). Dieser Artikel zeigt, was das SDK kann, wie Agents funktionieren und warum Testing dabei keine Nebensache ist.
TL;DR: Das Laravel AI SDK bietet eine einheitliche API für 10+ AI-Provider wie OpenAI, Anthropic und Gemini. Mit Agents, Tools, Structured Output, Streaming und eingebautem Testing lässt sich AI nativ in Laravel-Anwendungen integrieren — ohne externe Wrapper-Pakete. Über 103.000 Downloads in den ersten drei Wochen zeigen das Interesse der Community (Packagist, 2026).
Was ist das Laravel AI SDK?
84 % aller Entwickler nutzen AI-Tools bereits oder planen deren Einsatz in naher Zukunft (Stack Overflow Developer Survey, 2025). Das Laravel AI SDK gibt PHP-Entwicklern eine einheitliche API für über zehn Provider — von OpenAI über Anthropic bis hin zu lokalen Modellen via Ollama.
Die unterstützten Provider im Überblick: OpenAI, Anthropic, Gemini, Azure OpenAI, Groq, xAI, DeepSeek, Mistral, Ollama und ElevenLabs. Dazu kommt eine breite Feature-Matrix: Textgenerierung, Bildverarbeitung, Text-to-Speech, Speech-to-Text, Embeddings, Reranking und Vector Stores. Nicht jeder Provider unterstützt jedes Feature, aber die API bleibt konsistent.
Installation
Die Einrichtung dauert keine zwei Minuten:
composer require laravel/ai
php artisan vendor:publish --provider="Laravel\Ai\AiServiceProvider"
php artisan migrate
Danach trägt man die API-Keys in die .env ein:
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...
GEMINI_API_KEY=...
Fertig. Kein externer HTTP-Client, kein manuelles JSON-Parsing. Das SDK übernimmt alles.
Warum ist das relevant? Weil bisherige Lösungen wie eigenständige Guzzle-Wrapper oder Community-Pakete immer einen Kompromiss bedeuteten: entweder fehlte Testing-Support, oder die Provider-Abstraktion war lückenhaft. Das Laravel AI SDK schließt diese Lücke.
Wie funktionieren Agents im Laravel AI SDK?
72 % der PHP-Entwickler planen, AI-Coding-Agents im kommenden Jahr auszuprobieren (JetBrains, 2025). Agents sind das Herzstück des Laravel AI SDK. Sie kapseln Instruktionen, Tools und Ausgabeformate in wiederverwendbare PHP-Klassen.
Einen Agent erstellen
Ein Artisan-Befehl genügt:
php artisan make:agent SalesCoach
Das erzeugt eine Klasse in app/Ai/Agents/SalesCoach.php. Hier ein Beispiel:
namespace App\Ai\Agents;
use Laravel\Ai\Contracts\Agent;
use Laravel\Ai\Promptable;
use Laravel\Ai\Attributes\Model;
use Laravel\Ai\Attributes\Provider;
use Laravel\Ai\Enums\Lab;
#[Provider(Lab::Anthropic)]
#[Model('claude-sonnet-4-20250514')]
class SalesCoach implements Agent
{
use Promptable;
public function instructions(): string
{
return <<<'PROMPT'
Du bist ein erfahrener Vertriebscoach. Analysiere Verkaufsgespräche
und gib konkretes, umsetzbares Feedback. Antworte auf Deutsch.
PROMPT;
}
}
Agents aufrufen
Der Aufruf ist denkbar einfach:
$response = (new SalesCoach)->prompt('Hier ist das Transkript eines Kundengesprächs...');
echo $response->text;
Eine Zeile. Keine Provider-Konfiguration im Controller, kein manuelles Request-Building. Wer schon mal die OpenAI-PHP-Bibliothek direkt verwendet hat, weiß den Unterschied zu schätzen.
Structured Output
Agents können strukturierte Daten zurückgeben. Dafür implementiert man HasStructuredOutput und definiert ein Schema:
use Laravel\Ai\Contracts\HasStructuredOutput;
use Illuminate\Contracts\JsonSchema\JsonSchema;
class SalesCoach implements Agent, HasStructuredOutput
{
use Promptable;
public function schema(JsonSchema $schema): array
{
return [
'score' => $schema->integer()->min(1)->max(10)->required(),
'feedback' => $schema->string()->required(),
];
}
}
// Zugriff auf die strukturierte Antwort:
$response = (new SalesCoach)->prompt('Analysiere...');
$score = $response['score']; // int
Die Antwort kommt als typisiertes Array zurück. Kein json_decode mehr, das an unerwarteten Sonderzeichen scheitert.
Conversation Memory
Längere Gespräche sind mit dem RemembersConversations-Trait möglich:
$response = (new SalesCoach)->forUser($user)->prompt('Hallo!');
$conversationId = $response->conversationId;
// Später fortsetzen
$response = (new SalesCoach)
->continue($conversationId, as: $user)
->prompt('Erzähl mir mehr...');
Das SDK speichert den Kontext automatisch. Kein manuelles Session-Management.
Anonyme Agents
Für schnelle Prototypen gibt's eine funktionale Variante:
use function Laravel\Ai\{agent};
$response = agent(instructions: 'Du bist ein Laravel-Experte.')
->prompt('Erkläre Middleware.');
Perfekt für Tinker-Sessions oder schnelle Tests. Wann braucht man also eine vollständige Agent-Klasse? Sobald Tools, Schema oder Memory ins Spiel kommen.
Wie funktionieren Streaming, Queues und Broadcasting?
Server-Sent Events (SSE) sind der Standard für Echtzeit-AI-Antworten — das Vercel AI SDK verzeichnet über 21.900 GitHub-Stars und 20 Millionen monatliche Downloads mit genau diesem Ansatz (npm, 2026). Das Laravel AI SDK unterstützt dasselbe Protokoll nativ.
Streaming
Eine gestreamte Antwort direkt aus einer Route:
Route::get('/chat', function () {
return (new SalesCoach)->stream('Analysiere dieses Transkript...');
});
Das SDK liefert eine SSE-kompatible Response. Frontend-Bibliotheken wie das Vercel AI SDK können die Daten direkt konsumieren.
Queue-Integration
Langwierige AI-Aufgaben gehören nicht in den Request-Zyklus. Die Queue-Integration löst das:
(new SalesCoach)
->queue('Analysiere dieses Transkript...')
->then(function (AgentResponse $response) {
// Response verarbeiten
Notification::send($user, new AnalysisComplete($response));
});
Die Kombination aus Queue und Broadcasting öffnet ein interessantes Muster: Hintergrundverarbeitung mit Echtzeit-Feedback. Man startet die AI-Aufgabe per Queue und broadcastet Zwischenergebnisse über Laravel Channels an den Client.
Wer bereits Laravels Queue-System kennt, fühlt sich hier sofort zu Hause. Dieselben Patterns, dieselben Retry-Mechanismen, dieselbe Konfiguration.
Wie funktioniert Provider-Failover?
Ausfälle bei AI-Providern sind keine Seltenheit — laut dem StatusGator-Report lag die durchschnittliche Uptime großer AI-APIs 2025 bei 99,2 %, was über 70 Stunden Ausfallzeit pro Jahr entspricht (StatusGator, 2025). Das Laravel AI SDK bietet deshalb automatischen Failover.
Multi-Provider-Failover
Ein Array statt eines einzelnen Providers genügt:
$response = (new SalesCoach)->prompt(
'Analyse...',
provider: [Lab::OpenAI, Lab::Anthropic],
);
Fällt OpenAI aus oder liefert einen Rate-Limit-Fehler, wechselt das SDK automatisch zu Anthropic. Kein Try-Catch nötig.
Konfiguration per Attribut
Statt im Aufruf lässt sich der Provider auch direkt in der Agent-Klasse festlegen:
#[Provider(Lab::Anthropic)]
#[Model('claude-sonnet-4-20250514')]
class SalesCoach implements Agent { ... }
Praktische Shortcuts gibt's ebenfalls: #[UseCheapestModel] wählt das günstigste Modell des Providers, #[UseSmartestModel] das leistungsstärkste. Für Prototypen vs. Produktion ein nützlicher Hebel.
Vergleich mit anderen Frameworks
Wie steht das Laravel AI SDK im Vergleich da? Spring AI erreichte Version 1.0 GA im Mai 2025 und bedient das Java-Ökosystem (Spring, 2025). Das Vercel AI SDK dominiert im JavaScript-Bereich. Laravel schließt nun die Lücke für PHP — mit 103.000 Downloads in drei Wochen ein starker Start.
Alle drei SDKs unterstützen Multi-Provider, Streaming und Structured Output. Laravels Alleinstellungsmerkmal liegt in der tiefen Integration mit Eloquent, Queues und dem eingebauten Testing-Framework.
Wie macht das SDK AI-Code testbar?
Testbarkeit trennt Hobby-Projekte von produktionsreifem Code. Das Laravel AI SDK bringt ein vollständiges Fake-System mit — im selben Stil wie Laravels Http::fake() oder Queue::fake(), die seit Jahren zum Standard gehören (Laravel Docs, 2026).
Fake-Responses
Kein API-Call nötig. Kein API-Key im CI:
SalesCoach::fake(['Hier ist mein Feedback...']);
// Code ausführen, der den Agent nutzt
$service->analyzeTranscript($transcript);
// Assertions
SalesCoach::assertPrompted('Analyse...');
SalesCoach::assertNeverQueued();
Unerwartete Aufrufe fangen
Ähnlich wie Http::preventStrayRequests() gibt's:
SalesCoach::preventStrayPrompts();
Jeder nicht gefakte Agent-Aufruf wirft dann eine Exception. Das schützt vor überraschenden API-Kosten in der Test-Suite.
Weitere Fakes
Das Prinzip gilt nicht nur für Agents:
Image::fake();
Audio::fake();
Embeddings::fake();
Wer Laravels Testing-Philosophie kennt, erkennt das Muster sofort. Genau das macht den Unterschied zu externen Paketen: Testing ist kein Addon, sondern eingebaut.
FAQ
Welche AI-Provider werden unterstützt?
OpenAI, Anthropic, Gemini, Azure OpenAI, Groq, xAI, DeepSeek, Mistral, Ollama und ElevenLabs. Die Provider lassen sich per Attribut oder zur Laufzeit austauschen. Das SDK abstrahiert die unterschiedlichen APIs zu einer einheitlichen Schnittstelle, sodass ein Wechsel keine Code-Änderungen im Controller erfordert.
Kann ich das SDK mit Ollama lokal nutzen?
Ja, Ollama wird als vollwertiger Provider unterstützt. In der Konfiguration setzt man eine eigene Base-URL, und schon laufen Anfragen gegen lokale Modelle — ohne Cloud-Anbindung. Das ist besonders für datensensible Projekte relevant, bei denen keine Daten das eigene Netzwerk verlassen dürfen.
Wie unterscheidet sich das SDK von Prism PHP?
Das Laravel AI SDK nutzt Prism PHP intern als Dependency für die Provider-Kommunikation. Darüber hinaus bietet es Agents als eigenständige PHP-Klassen, automatisches Conversation Memory, Queue-Integration, Broadcasting über Laravel Channels und ein vollständiges Testing-Framework mit Fakes und Assertions. Prism PHP ist die Grundlage, das SDK die Gesamtlösung.
Fazit
Das Laravel AI SDK schließt die Lücke zwischen Laravels Ökosystem und moderner AI-Infrastruktur. Frameworks wie Spring AI und das Vercel AI SDK haben vorgelegt — Laravel zieht nach, und zwar mit der Qualität, die man von einem Otwell-Paket erwartet. Taylor Otwell selbst schrieb: "Really enjoying hand-crafting the Laravel AI SDK. First hand-crafted Otwell package since Laravel / Livewire Volt in 2023" (Taylor Otwell auf X, 2026).
Das SDK fügt sich in Laravels bestehende Architektur ein: Eloquent für Conversation Memory, Queues für Hintergrundverarbeitung, Artisan für Code-Generierung, Fakes für Testing. Wer Laravel kennt, findet sich sofort zurecht.
Der nächste Schritt: composer require laravel/ai ausführen und den ersten Agent bauen. Die offizielle Dokumentation liefert alles, was man zum Einstieg braucht.
