Wer sich erstmals mit Geldanlage beschäftigt, steht vor hohen Hürden: Komplexe Fachbegriffe, breite Produktlandschaften und die Scheu, vermeintlich einfache Fragen zu stellen, wie „Was ist ein ETF?“, „Was bedeutet thesaurierend?“ oder „Wie funktioniert ein Sparplan?“. Gerade jüngere Menschen suchen nach niedrigschwelligen, digitalen Wegen, sich in ihrem eigenen Tempo zu informieren. Um diese Lücke zu schließen, hat VisualVest, ein digitaler Online-Broker und Tochter der Union Investment, ein Projekt zur Entwicklung eines LLM-basierten Chatbots ins Leben gerufen.

Als Finanzinstitut legt VisualVest höchsten Wert auf die Einhaltung regulatorischer Vorgaben. Der Bot soll nicht nur fundiertes Finanzwissen und detaillierte Produktinformationen verständlich vermitteln, sondern muss bei jeder Antwort auf rechtlich saubere Formulierungen und fachliche Korrektheit achten. Gerade beim Einsatz von Large Language Models (LLMs) ist es eine besondere technische Hürde, diese Präzision und Verlässlichkeit dauerhaft und konsistent zu garantieren.
Für das Projekt suchte VisualVest Unterstützung, um generative KI mit regulatorischen Anforderungen zu verbinden. So entstand VestAI, ein KI-Chatbot, der seit Januar 2026 auf der Startseite der VisualVest informiert.
Die Anforderung seitens VisualVest war klar: Die Antworten des KI-Chatbots müssen sich stets in einem regulatorisch korrekten Rahmen bewegen. Gleichzeitig sollte es aber die Vorteile generativer KI nutzen – natürliche Konversation, flexible Antworten, verständliche Sprache. Wie lässt sich diese Freiheit mit einem streng abgesteckten rechtlichen Rahmen vereinbaren? Im übergreifenden Team entwickelte iteratec daher eine spezialisierte Multi-Experten-Architektur, also ein Konstrukt aus mehreren LLMs, die spezielle Expertise in einem Themengebiet haben. Diese Architektur ist robust gegenüber Anfragen außerhalb definierter Zuständigkeitsbereiche. So ist es aufgebaut:
Ein Experte analysiert jede Frage und entscheidet, welcher spezialisierte Experte zuständig ist.
Je nach Thema wird die Anfrage an passende Experten weitergeleitet, wie beispielsweise den Produktportfolio-Experten für Fragen zu VisualVest-Produkten oder den Default-Experten für alle Anfragen außerhalb des definierten Kompetenzbereichs
Die spezialisierten Experten greifen via Retrieval Augmented Generation (RAG) auf fachlich geprüfte, aufbereitete Wissensinhalte zu, wie Webseiteninhalte, FAQs, Produktinformationen.
So erhalten Nutzer:innen verlässliche Finanzinformationen in natürlicher Sprache. Der Prozess ist schnell. Das System wird kontinuierlich auf Basis von Nutzer- und Legal-Feedback optimiert.
Large Language Models bieten den Vorteil, dass man in natürlicher Sprache interagieren kann. Doch genau diese Flexibilität birgt ein Problem: Bei natürlicher Sprache gibt es unendlich viele mögliche Fragen. Wie stellt man also sicher, dass das System auch bei unvorhergesehenen Formulierungen regelkonform bleibt? In diesem Projekt wurde ein mehrschichtiger Qualitätsansatz entwickelt:
Expert-Testing: Juristische Fachexpert:innen prüften im Vorfeld Frage-Antwort-Kombinationen auf mögliche regulatorische Konformität.
Red Teaming: Gezielte Versuche, das System zu unerwünschten Antworten zu bringen, decken Blind Spots auf.
LLM-as-Judge: Ein zentraler Baustein ist diese Methode, bei dem ein LLM die Outputs anderer LLMs anhand definierter Qualitätsmetriken wie Faktentreue, Konsistenz und Nachvollziehbarkeit bewertet.
Human-in-the-Loop: Stichprobenartige Kontrollen durch Fachexpert:innen werden auch weiterhin im laufenden Betrieb durchgeführt.
Ein entscheidender Erfolgsfaktor war die direkte Integration fachlicher Expert:innen bei der Entwicklung der Prompts, insbesondere aus der Rechtsabteilung, die Hand in Hand mit den technischen KI-Spezialist:innen zusammengearbeitet haben.
Das Ergebnis: kürzere Iterationszyklen und ein tiefes gegenseitiges Verständnis zwischen Fach- und Tech-Perspektive. Die Integration fachlicher Expert:innen als Co-Entwickler:innen zeigt zudem einen Paradigmenwechsel in der Produktentwicklung: Es geht weniger um vorab definiertes Anforderungsmanagement, sondern um echte Kollaboration auf Augenhöhe.
VestAI demonstriert, dass modernste KI-Technologie und strenge Regulierung kein Widerspruch sind. Systematisches Vorgehen, intelligente Architektur und enge Stakeholder-Einbindung haben die Lösung möglich gemacht. Das Projekt setzt einen starken Impuls für den verantwortungsvollen Einsatz von KI in regulierten Branchen – von Finanzen über Gesundheit bis zum öffentlichen Sektor.

Sie haben ein konkretes Anliegen oder Fragen für Ihr Unternehmen? Wir möchten gemeinsam mit Ihnen herausfinden, wie wir Ihre Herausforderungen bewältigen können.
Dr. Sascha Flick, Director Market