Generative UI: wie KI-Agenten ihre eigene Oberfläche bauen
Immer mehr KI-Agenten entscheiden selbst, wann sie Buttons, Formulare oder Statusmeldungen anzeigen. Was ist Generative UI, warum kommt es jetzt durch und was bedeutet es für Ihre Kundengespräche?
Autor: Heyloha Team
Die neue Generation von KI-Agenten überlässt die UI nicht mehr den Designern
Bis vor Kurzem war jede Chat-Oberfläche vorab durchdesignt. Ein Designer legte fest, welche Buttons wann erscheinen, ein Entwickler baute den Flow und der Besucher folgte dem Pfad. Der Agent selbst war nicht mehr als eine Textbox mit einem blauen Senden-Button.
Das ändert sich. Bei Generative UI entscheidet der KI-Agent selbst, je nach Situation, ob ein Button, ein Formular oder eine Statusmeldung das Gespräch flüssiger macht. Keine vorgebauten Menüs, kein Flow-Builder, einfach die passende UI-Komponente im richtigen Moment.
Was ist Generative UI genau?
Generative UI (kurz 'Gen UI') ist ein Designprinzip, bei dem die Benutzeroberfläche von einem KI-Modell auf Abruf zusammengestellt wird, statt vorab festgelegt zu sein. In dem Moment, in dem das Modell eine Frage stellt oder ein Tool nutzt, wählt es selbst die passende UI-Komponente: Auswahl-Buttons, ein Formular, eine Tabelle, ein Diagramm oder eine Statusmeldung.
In der Praxis funktioniert das so: Neben Text-Output stehen dem Agenten eine Reihe von Komponenten zur Verfügung. Bei einer Frage mit vier möglichen Antworten serviert der Agent vier Buttons. Bei einer Anfrage zur Lead-Qualifizierung rendert er ein Formular mit den passenden Feldern. Bei einem Tool-Call, der ein paar Sekunden dauert, zeigt er in Echtzeit, was er gerade tut.
Die zugrunde liegende Veränderung ist fundamental: Die UI ist kein statisches Skript mehr, sondern ein Output des Modells.
Warum es jetzt durchbricht
Generative UI nimmt jetzt aus drei Gründen Fahrt auf.
Erstens sind Frontier-Modelle (wie Claude 4 und GPT-5) zuverlässig genug bei Tool-Use, um konsistent die richtige Komponente zu wählen. Vor einem Jahr sah man Modelle, die zu zufälligen Zeitpunkten ein Formular rendern, oder eben gar nie. Heute wählen Modelle konsistent die UI, die zum Kontext passt.
Zweitens sind die Developer-Tools reif geworden. Vercel AI SDK, OpenAI Canvas, Anthropic Artifacts sowie die Tool-Calling-Frameworks von LangChain und LlamaIndex machen Generative UI für Produktteams realistisch.
Drittens haben sich die Erwartungen der Nutzer verschoben. ChatGPT und Claude zeigen seit Jahren Rich Content (Bilder, Code-Blöcke, Diagramme) im Chat. Endnutzer erwarten inzwischen, dass ein Chatbot mehr kann als Text, und springen bei reinen Tippfeldern ab.
Beispiele aus der Praxis
OpenAI Canvas öffnet ein zweites Panel, in dem Code oder Text gemeinsam bearbeitet wird, statt alles in einen langen Chat zu kleben.
Anthropic Artifacts rendert eigenständige Dokumente, Präsentationen und Mini-Apps, die das Modell generiert, mit Live-Preview.
Vercel v0 schreibt React-Komponenten aus einem Prompt und zeigt sie direkt als nutzbare Oberfläche statt als Code.
Im Kundenkontakt setzt sich dasselbe Muster durch. Immer mehr KI-Agenten in Gesundheitswesen, Finanzen und B2B-Services rendern Formulare im Chat, präsentieren Buttons für Termine und zeigen Echtzeit-Status zu Tool-Calls.
Was das für Ihre Kundengespräche bedeutet
Für Unternehmen, die mit Kundenkontakt arbeiten, bringt Generative UI drei konkrete Vorteile.
Geringere Abbruchrate. Ein Klick auf einen Button geht schneller und ist weniger Aufwand als einen Satz zu tippen. Bei mehreren Feldern für die Lead-Erfassung füllt ein Besucher lieber ein kompaktes Formular aus, als Frage für Frage zu antworten.
Saubere Daten. Buttons liefern standardisierte Antworten. Pflichtfelder im Formular verhindern Tippfehler bei E-Mail-Adressen und fehlende Telefonnummern. Die Daten, die in Ihrem CRM landen, sind sofort nutzbar.
Mehr Transparenz beim Warten. Tool-Calls, die ein paar Sekunden dauern, fühlten sich früher wie eine Black Box an. Mit einer Echtzeit-Statusanzeige ('Verfügbarkeit wird geprüft...') weiß der Besucher, worauf er wartet, und springt seltener ab.
Wie Heyloha das umsetzt
Wir haben Generative UI in Heylohas KI-Chatbot auf drei Arten eingebaut.
Auswahl-Buttons erscheinen, wenn der Agent eine Frage mit einer festen Antwortenliste stellt. Zum Beispiel 'Um welchen Immobilientyp geht es?' (Kauf, Miete, Investition oder Sonstiges) oder freie Termine aus einem verbundenen Microsoft Calendar.
Formulare im Chat erscheinen, wenn mehrere Felder gleichzeitig nötig sind: Lead-Capture, Rückrufanfragen, Bewertungsanfragen für ein Maklerbüro. Der Besucher füllt alles auf einmal aus, ohne Weiterleitung, ohne Pop-up, in Ihrem Branding.
Eine Live-Aktionsanzeige zeigt in Echtzeit, was der Agent gerade tut: eine Postleitzahl prüfen, eine Bewertung berechnen, einen Termin buchen. Keine Black Box von fünf Sekunden.
Der Agent entscheidet selbst, wann er einen Button, ein Formular oder eine Anzeige einsetzt. Keine Skripte, kein Flow-Builder, einfach die passende UI-Komponente für die Situation.
Der nächste Schritt
Generative UI ist kein visuelles Upgrade bestehender Chatbots. Es ist ein Wandel darin, wie Oberflächen entstehen: von vorab festgelegt zu im Kontext generiert. Für Kundengespräche bedeutet das weniger Abbrüche, sauberere Daten und Gespräche, die wirklich weiterlaufen.
Möchten Sie es selbst sehen? Testen Sie Heyloha 14 Tage kostenlos auf Ihrer eigenen Website oder sehen Sie die Live-Demo an und beobachten Sie, wie der Agent seine eigene UI während eines Gesprächs rendert.