Buchstabe: T

1 Min. Lesezeit

Task Mining

Task Mining erfasst, wie Mitarbeiter mit ihren Anwendungen arbeiten.

Anwendung

  • Desktop-Aktivitäten aufzeichnen
  • Muster und Ineffizienzen erkennen
  • RPA-Kandidaten identifizieren
  • Bot-Vorlagen generieren
1 Min. Lesezeit

Temperature

Die Temperature bestimmt, wie kreativ oder deterministisch ein LLM antwortet.

Werte

  • 0.0: Deterministisch, immer gleiche Antwort
  • 0.3-0.7: Ausgewogen, Standard für meiste Anwendungen
  • 1.0+: Kreativ, mehr Variation
1 Min. Lesezeit

TensorFlow

TensorFlow ist eines der meistgenutzten ML-Frameworks für Forschung und Produktion.

Komponenten

  • TensorFlow Core
  • Keras (High-Level API)
  • TensorFlow Lite (Mobile)
  • TensorFlow.js (Browser)
1 Min. Lesezeit

Token

Tokens sind die Grundbausteine der Textverarbeitung in LLMs.

Tokenisierung

  • Text wird in Tokens zerlegt
  • Ein Token entspricht ca. 3-4 Zeichen oder einem Wort
  • Kontextfenster = maximale Tokenanzahl

Beispiel

„Künstliche Intelligenz“ = ca. 3-4 Tokens

1 Min. Lesezeit

Tool Calling

Tool Calling ermöglicht es Sprachmodellen, mit externen Systemen zu interagieren und reale Aktionen auszuführen.

Funktionsweise

  • LLM erkennt Notwendigkeit eines Tool-Aufrufs
  • Strukturierte Parameter-Übergabe (JSON)
  • Ausführung der externen Funktion
  • Integration des Ergebnisses in die Antwort

Beispiele

Wetter-APIs, Kalender-Integration, Datenbank-Abfragen, E-Mail-Versand.

1 Min. Lesezeit

Top-P Sampling

Top-P Sampling begrenzt die Auswahl auf die wahrscheinlichsten nächsten Tokens.

Funktionsweise

  • Tokens nach Wahrscheinlichkeit sortieren
  • Nur Tokens waehlen bis kumulative P% erreicht
  • Top-P=0.9 bedeutet: 90% wahrscheinlichste Tokens
1 Min. Lesezeit

Topic Authority

Topic Authority signalisiert Google, dass eine Seite Experte für ein Thema ist.

Aufbau

  • Pillar Content zu Hauptthemen
  • Cluster-Artikel zu Unterthemen
  • Interne Verlinkung
  • Regelmässige Aktualisierung
1 Min. Lesezeit

Trainingsdaten-Transparenz

GPAI-Anbieter müssen detailliert dokumentieren, welche Daten zum Training verwendet wurden.

Erforderliche Angaben

  • Datentypen und -quellen
  • Vorverarbeitungsmethoden
  • Urheberrechtliche Situation
  • Potenzielle Bias-Quellen
1 Min. Lesezeit

Transformer

Transformer revolutionierten 2017 das NLP durch den Attention-Mechanismus.

Vorteile

  • Parallele Verarbeitung
  • Lange Kontexte möglich
  • Skalierbar

Architektur

  • Encoder (BERT-artig)
  • Decoder (GPT-artig)
  • Encoder-Decoder (T5)
1 Min. Lesezeit

Tutorial

Tutorials vermitteln praktisches Wissen durch nachvollziehbare Beispiele.

Effektive Tutorial-Elemente

  • Klare Lernziele
  • Schrittweise Anleitungen
  • Praktische Beispiele
  • Code-Snippets