Technologie & Architektur
Enterprise-KI-Infrastruktur für zuverlässige, skalierbare und datenschutzkonforme Formularassistenten.
Architektur im Überblick
Die FINO Suite folgt einer modularen Cloud-Architektur mit klarer Schichtentrennung. Jede Komponente ist unabhängig skalierbar und austauschbar.
Sprachmodelle (LLMs)
FINO ist modell-agnostisch und unterstützt verschiedene Large Language Models. Die Wahl des Modells kann pro Mandant und Anwendungsfall konfiguriert werden.
| Anbieter | Modelle | Einsatzbereich | EU-Hosting |
|---|---|---|---|
| Anthropic | Claude Sonnet-Familie | Dialogführung, Formularassistenz, komplexe Rückfragen | ✅ via EU-Infrastruktur |
| Amazon | Nova Pro, Nova Lite, Titan | Dokumentenanalyse, Bildverarbeitung, Embeddings | ✅ EU (Frankfurt) |
| Amazon | Nova Sonic | Sprachverarbeitung (FINO Voice) | ✅ EU (Stockholm) |
| Weitere | Auf Anfrage konfigurierbar | Kundenspezifische Anforderungen | Je nach Anbieter |
RAG - Retrieval Augmented Generation
FINO nutzt RAG, um KI-Antworten auf verifizierte Fakten zu stützen statt auf das allgemeine Modellwissen. Das Ergebnis: fachlich korrekte, aktuelle und nachvollziehbare Antworten.
Retrieval (Wissensabruf)
Bei jeder Nutzeranfrage werden relevante Informationen aus den angebundenen Wissensdatenbanken abgerufen.
- Vektorsuche: Semantisches Matching über Embeddings
- Hybridsuche: Kombination aus semantischer und Keyword-Suche
- Ranking: Relevanz-Bewertung und Filterung der Ergebnisse
- Quellenangaben: Jede Information ist auf ihre Quelle rückführbar
Generation (Antwortgenerierung)
Das Sprachmodell generiert eine Antwort auf Basis der abgerufenen Informationen und des Gesprächskontexts.
- Kontextfenster: Relevante Dokumente werden dem Modell bereitgestellt
- Prompt Engineering: Fachspezifische Anweisungen steuern Tonalität und Genauigkeit
- Validierung: Antworten werden auf Konsistenz geprüft
- Mehrsprachigkeit: Antwort in der Sprache des Nutzers, Formular in Deutsch
Warum RAG statt reines LLM?
Ohne RAG (reines LLM):
- Antworten basieren auf Trainingsdaten (veraltet)
- Halluzinationen möglich
- Keine Quellenangaben
- Nicht mandantenspezifisch
Mit RAG (FINO):
- Antworten basieren auf aktuellen, verifizierten Quellen
- Faktenbasiert und nachvollziehbar
- Quellenangaben bei jeder Antwort
- Individuelle Wissensbasis pro Mandant
MCP - Model Context Protocol
FINO nutzt das Model Context Protocol (MCP) als offenen Standard für die Kommunikation zwischen KI-Systemen und Wissensquellen. Das ermöglicht eine flexible, erweiterbare Architektur.
Modularität
- Wissensquellen als eigenständige MCP-Server
- Einfaches Hinzufügen und Entfernen von Datenquellen
- Unabhängige Skalierung pro Quelle
- Standardisierte Schnittstellen
Verteilte Architektur
- Mehrere Wissensquellen parallel abfragbar
- Mandantenfähige Konfiguration
- Echtzeit-Aktualisierung der Wissensbasis
- Interoperabilität mit verschiedenen KI-Modellen
Integration & Schnittstellen
Frontend-Integration
FINO wird als Web Component bereitgestellt - ein einzelnes HTML-Tag genügt für die Integration.
- Kein Framework erforderlich
- Funktioniert in jeder Webseite
- Responsive und barrierefrei
- Anpassbares Design
Backend-Schnittstellen
Für tiefere Integrationen stehen standardisierte APIs zur Verfügung.
- REST API: Standard HTTP-Schnittstelle für alle Produkte
- MCP Protocol: Für Wissensdatenbank-Anbindung
- Webhooks: Event-basierte Benachrichtigungen
- Formular-Mapping: Automatische Zuordnung von KI-Antworten zu Formularfeldern
CMS-Plugins
WordPress (verfügbar)
Fertiges Plugin mit grafischer Konfigurationsoberfläche. Installation über die WordPress-Admin-Oberfläche, Branding-Anpassung ohne Code-Änderungen.
- Alle Branding-Optionen (Farben, Texte, Logos)
- Mehrsprachige Konfiguration
- Sichtbarkeitssteuerung pro Seite
Weitere CMS (auf Anfrage)
Integrationen für Drupal, Joomla und Shopware sind in Planung. Kontaktieren Sie uns für Ihren spezifischen Anwendungsfall.
Performance & Skalierbarkeit
Performance
- Antwortzeiten: Typisch 3–5 Sekunden für komplexe Anfragen
- Caching: Intelligentes Caching für häufige Anfragen
- Streaming: Antworten werden in Echtzeit gestreamt
- Verfügbarkeit: 24/7 Betrieb mit automatischem Failover
Skalierbarkeit
- Horizontal: Automatische Skalierung bei Lastspitzen
- Multi-Tenant: Hunderte Mandanten auf einer Infrastruktur
- Modular: Einzelne Komponenten unabhängig skalierbar
- Von Pilot bis Produktion: Gleiche Architektur, unterschiedliche Dimensionierung
Technische Fragen?
Wir erklären Ihnen gerne die Architektur im Detail und zeigen, wie FINO in Ihre Systemlandschaft passt.