Halluzination
•
Halluzinationen sind ein bekanntes Problem bei LLMs, die manchmal erfundene Fakten als wahr darstellen.
Ursachen
- Statistische Mustererkennung statt echtem Wissen
- Luecken in den Trainingsdaten
- Modell tendiert zu plausiblen Antworten
Gegenmassnahmen
- RAG (Retrieval Augmented Generation)
- Fakten-Grounding
- Manuelle Überprüfung
Helpful Content
•
Das Helpful Content Update belohnt Inhalte, die für Menschen geschrieben sind.
Kriterien
- Beantwortet echte Nutzerfragen
- Bietet originale Einblicke
- Vom Experten geschrieben
- Nicht nur für Rankings erstellt
Hochrisiko-KI
•
Hochrisiko-KI unterliegt ab August 2026 strengen Anforderungen des EU AI Acts.
Beispiele
- Biometrische Identifikation
- Kritische Infrastruktur
- Bildung und Berufsausbildung
- Beschaeftigung und Personalmanagement
- Zugang zu oeffentlichen Diensten
Anforderungen
- Risikomanagement-System
- Daten-Governance
- Technische Dokumentation
- Menschliche Aufsicht
Human-in-the-Loop
•
Human-in-the-Loop stellt sicher, dass Menschen kritische Entscheidungen in KI-Prozessen treffen oder validieren.
Anwendungen
- Chatbot-zu-Agent-Übergabe
- Qualitätssicherung
- Trainingsdaten-Labeling
- Edge-Case-Bearbeitung
Hybrid Search
•
Hybrid Search kombiniert die Staerken verschiedener Suchmethoden.
Methoden
- Semantisch: Vektorähnlichkeit, Bedeutung
- Lexikalisch: BM25, exakte Keywords
- Fusion: RRF (Reciprocal Rank Fusion)
Hyperautomation
•
Hyperautomation bezeichnet den orchestrierten Einsatz mehrerer Automatisierungstechnologien.
Komponenten
- RPA (Robotic Process Automation)
- KI und Machine Learning
- Process Mining und Task Mining
- Low-Code/No-Code Plattformen
- iPaaS (Integration Platform as a Service)
Hyperparameter
•
Hyperparameter steuern den Trainingsprozess und die Modellarchitektur.
Wichtige Hyperparameter
- Learning Rate: Lerngeschwindigkeit
- Batch Size: Anzahl Beispiele pro Trainingsschritt
- Epochs: Anzahl Durchlaeufe
- Temperature: Kreativitaet bei Textgenerierung