Task Mining
•
Task Mining erfasst, wie Mitarbeiter mit ihren Anwendungen arbeiten.
Anwendung
- Desktop-Aktivitäten aufzeichnen
- Muster und Ineffizienzen erkennen
- RPA-Kandidaten identifizieren
- Bot-Vorlagen generieren
Temperature
•
Die Temperature bestimmt, wie kreativ oder deterministisch ein LLM antwortet.
Werte
- 0.0: Deterministisch, immer gleiche Antwort
- 0.3-0.7: Ausgewogen, Standard für meiste Anwendungen
- 1.0+: Kreativ, mehr Variation
TensorFlow
•
TensorFlow ist eines der meistgenutzten ML-Frameworks für Forschung und Produktion.
Komponenten
- TensorFlow Core
- Keras (High-Level API)
- TensorFlow Lite (Mobile)
- TensorFlow.js (Browser)
Tokens sind die Grundbausteine der Textverarbeitung in LLMs.
Tokenisierung
- Text wird in Tokens zerlegt
- Ein Token entspricht ca. 3-4 Zeichen oder einem Wort
- Kontextfenster = maximale Tokenanzahl
Beispiel
„Künstliche Intelligenz“ = ca. 3-4 Tokens
Tool Calling
•
Tool Calling ermöglicht es Sprachmodellen, mit externen Systemen zu interagieren und reale Aktionen auszuführen.
Funktionsweise
- LLM erkennt Notwendigkeit eines Tool-Aufrufs
- Strukturierte Parameter-Übergabe (JSON)
- Ausführung der externen Funktion
- Integration des Ergebnisses in die Antwort
Beispiele
Wetter-APIs, Kalender-Integration, Datenbank-Abfragen, E-Mail-Versand.
Top-P Sampling
•
Top-P Sampling begrenzt die Auswahl auf die wahrscheinlichsten nächsten Tokens.
Funktionsweise
- Tokens nach Wahrscheinlichkeit sortieren
- Nur Tokens waehlen bis kumulative P% erreicht
- Top-P=0.9 bedeutet: 90% wahrscheinlichste Tokens
Topic Authority
•
Topic Authority signalisiert Google, dass eine Seite Experte für ein Thema ist.
Aufbau
- Pillar Content zu Hauptthemen
- Cluster-Artikel zu Unterthemen
- Interne Verlinkung
- Regelmässige Aktualisierung
Trainingsdaten-Transparenz
•
GPAI-Anbieter müssen detailliert dokumentieren, welche Daten zum Training verwendet wurden.
Erforderliche Angaben
- Datentypen und -quellen
- Vorverarbeitungsmethoden
- Urheberrechtliche Situation
- Potenzielle Bias-Quellen
Transformer
•
Transformer revolutionierten 2017 das NLP durch den Attention-Mechanismus.
Vorteile
- Parallele Verarbeitung
- Lange Kontexte möglich
- Skalierbar
Architektur
- Encoder (BERT-artig)
- Decoder (GPT-artig)
- Encoder-Decoder (T5)
Tutorial
•
Tutorials vermitteln praktisches Wissen durch nachvollziehbare Beispiele.
Effektive Tutorial-Elemente
- Klare Lernziele
- Schrittweise Anleitungen
- Praktische Beispiele
- Code-Snippets