Kleines KI-Lexikon

Andreas Mühlbauer

Denkst du beim Begriff Transformer zuerst an einen Actionfilm? Und bei Context Window daran, dass du deine Fenster mal wieder putzen solltest?

Dann bist du in unserem KI-Lexikon genau richtig 🙂

Wir erklären dir die wichtigsten Begriffe rund um Künstliche Intelligenz (Artificial Intelligence). Von AI Act bis Zero Shot Learning.

Inhalt
  1. A
  2. C
  3. D
  4. E
  5. G
  6. K
  7. L
  8. M
  9. N
  10. P
  11. R
  12. S
  13. T
  14. Z

A

AI Act
Der AI Act ist ein Gesetz der Europäischen Union, der den Einsatz von Künstlicher Intelligenz regeln soll. Ziel ist es, Gesetze zu schaffen, um Innovation zu fördern und gleichzeitig Risiken für Bürger und Unternehmen zu minimieren. Offiziell in Kraft getreten ist er am 1. August 2024. Die Regelungen gelten mit einigen Ausnahmen überwiegend ab dem 2. August 2026.

AI Governance
AI Governance bezeichnet den Rahmen von Regeln, Prinzipien und Prozessen, der den Umgang mit Künstlicher Intelligenz auf ethische, transparente und verantwortungsvolle Weise steuert. Ziel ist es, sicherzustellen, dass KI-Systeme sicher, gerecht und im Einklang mit gesellschaftlichen Werten entwickelt und eingesetzt werden.

C

Chain of Thought Prompting (CoT)
Chain of Thought Prompting ist eine Technik, um Sprachmodelle dazu zu bringen, ihre Gedankengänge Schritt für Schritt darzulegen. Anstatt direkt eine Antwort zu liefern, wird das Modell durch gezielte Prompts dazu angeregt, den Lösungsweg aufzuschlüsseln. Das verbessert oft die Genauigkeit bei komplexen Aufgaben wie Rechenoperationen, logischen Rätseln oder mehrstufigen Fragen.

ChatGPT
ChatGPT ist ein KI-gestütztes Sprachmodell von OpenAI, das natürliche Gespräche simuliert. Es basiert auf der GPT-Technologie, einer KI-Architektur, die mithilfe von maschinellem Lernen trainiert wurde, Texte zu verstehen und zu generieren. ChatGPT wurde im November 2022 vorgestellt.

Context Window
Das Context Window beschreibt die maximale Menge an Text, die ein KI-Modell auf einmal verarbeiten kann. Es umfasst sowohl den Eingabetext (Prompt) als auch die Ausgabe (Antwort). Der Umfang des Context Windows beeinflusst damit die Fähigkeit der KI, komplexe Aufgaben zu verstehen, zusammenhängende Gespräche zu führen und kontextbezogene Antworten zu generieren. Es wird in Token gemessen. Also kleinen Textstücke wie Wörtern oder Wortteilen. Ein Token entspricht dabei ungefähr 4 Zeichen. Das Context Window bei modernen LLMs liegt bei 4.000 bis 128.000 Token.

D

Deep Learning
Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem künstliche neuronale Netze genutzt werden, um komplexe Muster in Daten zu erkennen. Es basiert auf der Idee, dass Maschinen wie das menschliche Gehirn lernen können, indem sie Daten schichtweise verarbeiten.

Diffusionsmodelle
Diffusionsmodelle sind eine KI-Technologie zur Erzeugung von Bildern. Sie beginnen mit einem Rauschen-gefüllten, zufälligen Bild und reduzieren in mehreren Schritten das Rauschen, bis ein detailliertes, realistisches Bild entsteht. Diese KI-Technik ermöglicht die Generierung beeindruckender visueller Inhalte, von Kunstwerken bis hin zu fotorealistischen Bildern.

E

Edge AI
Edge AI bezeichnet die Ausführung von KI-Algorithmen direkt auf Geräten am „Rand“ eines Netzwerks (englisch: Edge), also nahe an der Datenquelle, anstatt die Daten zur Verarbeitung in die Cloud oder ein zentrales Rechenzentrum zu senden. Diese Geräte können Smartphones, Sensoren, Drohnen, autonome Fahrzeuge oder industrielle IoT-Geräte sein.

Explainable AI (XAI)
Explainable AI bezeichnet Methoden und Ansätze, die darauf abzielen, die Entscheidungen und Funktionsweise von KI-Systemen für Menschen verständlich und nachvollziehbar zu machen. Es geht darum, die oft komplexen „Black-Box“-Modelle transparenter zu gestalten, insbesondere bei Machine-Learning-Technologien wie neuronalen Netzen.

G

GANs (Generative Adversarial Networks)
GANs sind eine spezielle Art von neuronalen Netzen, die aus zwei Modellen bestehen: einem Generator, der neue Daten erstellt (z. B. Bilder), und einem Diskriminator, der entscheidet, ob die Daten echt oder generiert sind. Beide Modelle arbeiten gegeneinander: Der Generator versucht, den Diskriminator zu täuschen, während dieser lernt, die Täuschung zu erkennen. Dieser Wettkampf verbessert beide Modelle, sodass GANs realistische Inhalte erzeugen können, die oft kaum von echten Daten zu unterscheiden sind. Sie werden für Bildgenerierung, Deepfakes und kreative Anwendungen eingesetzt. GANs haben eine große Bedeutung in der KI-Forschung, da sie realistische Inhalte erzeugen können, die zuvor nur durch menschliche Kreativität möglich waren.

Generative KI
Generative KI ist ein Bereich der Künstlichen Intelligenz, der darauf abzielt, neue, realistische Inhalte zu erstellen. Sie verwendet Modelle, die aus existierenden Daten lernen und daraus eigenständig Texte, Bilder, Videos, Musik, Code oder andere Daten generieren können. Der Begriff „generativ“ verweist auf die Fähigkeit dieser KI-Systeme, Inhalte zu erschaffen statt lediglich bestehende zu analysieren oder zu klassifizieren.

Generative Pre-trained Transformer (GPT)
Ein Generative Pre-trained Transformer ist ein Sprachmodell, das mithilfe von Deep Learning entwickelt wurde, um Texte zu verstehen und zu generieren. Es wird zunächst auf riesigen Textdaten vortrainiert („pre-trained“) und dann für spezifische Aufgaben wie Text-Generierung, Übersetzung oder Beantwortung von Fragen optimiert. GPT basiert auf der Transformer-Architektur, die durch ihren Fokus auf Kontext und Beziehungen zwischen Wörtern besonders leistungsfähig ist. Es wird häufig in Chatbots, Content-Erstellung und Automatisierung eingesetzt.

K

Knowledge Cutoff Date
Das Knowledge Cutoff Date bezeichnet das Datum, bis zu dem ein KI-Modell wie ChatGPT mit Informationen trainiert wurde. Es markiert den Zeitpunkt, an dem die Wissensbasis des Modells „eingefroren“ wurde. Das bedeutet, dass das Modell keine Informationen über Ereignisse, Entwicklungen oder Daten kennt, die nach diesem Datum liegen.

Künstliche Intelligenz (KI)
Künstliche Intelligenz bezeichnet den Bereich der Informatik, der sich mit der Entwicklung von Systemen beschäftigt, die menschenähnliche Intelligenzleistungen erbringen können. Ziel ist es, Maschinen oder Programme zu schaffen, die Aufgaben ausführen, die normalerweise menschliches Denken, Lernen oder Problemlösen erfordern.

L

Large Language Model (LLM)
Ein Large Language Model ist ein KI-Modell, das speziell für die Verarbeitung und Generierung natürlicher Sprache entwickelt wurde. Diese Modelle basieren auf tiefen neuronalen Netzwerken, die mit riesigen Textmengen trainiert werden, um Sprache zu verstehen, Muster zu erkennen und menschenähnliche Texte zu erstellen.

Loss Function
Eine Loss Function (Verlustfunktion) ist ein mathematisches Werkzeug, das in Machine-Learning-Modellen verwendet wird, um die Abweichung zwischen den Vorhersagen eines Modells und den tatsächlichen Werten (den Zielwerten) zu messen. Sie dient als Indikator dafür, wie gut oder schlecht ein Modell funktioniert.

M

Maschinelles Lernen (ML)
Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz, der es Computern ermöglicht, aus Daten zu lernen und sich zu verbessern, ohne explizit dafür programmiert zu werden. Es geht darum, Muster und Zusammenhänge in Daten zu erkennen, um Vorhersagen zu treffen oder Entscheidungen zu automatisieren.

Natural Language Processing (NLP)
Natural Language Processing ist ein Bereich der künstlichen Intelligenz, der sich mit der Verarbeitung und Analyse natürlicher Sprache beschäftigt. Ziel ist es, Texte oder Sprache so zu verstehen und zu generieren, dass Maschinen mit Menschen kommunizieren können. Anwendungen von NLP umfassen Sprachassistenten, maschinelle Übersetzungen, Textanalyse und Chatbots. Es kombiniert linguistische Regeln mit maschinellem Lernen, um Sprache in Kontexten sinnvoll zu interpretieren.

N

Neuronale Netze
Neuronale Netze sind eine Klasse von Algorithmen im Bereich des maschinellen Lernens, die von der Struktur und Funktionsweise des menschlichen Gehirns inspiriert sind. Sie bestehen aus miteinander verbundenen Einheiten, den sogenannten Neuronen, die in Schichten angeordnet sind. Diese Netze sind besonders effektiv darin, Muster und Zusammenhänge in großen Datensätzen zu erkennen und komplexe Probleme zu lösen.

P

Prompt
Ein Prompt ist die Eingabe, die einem generativen KI-Modell gegeben wird, um eine Antwort zu erhalten. Ein Prompt kann ein einzelnes Wort, ein Satz oder eine komplexe Beschreibung sein. Die Qualität und Präzision des Prompts beeinflussen direkt die Genauigkeit und Relevanz der generierten Antwort. Ein gut gestalteter Prompt ist deshalb entscheidend für die erfolgreiche Nutzung von KI-Modellen.

Prompt Engineering
Prompt Engineering ist die Kunst die Anweisung für generative KI-Modelle so zu gestalten, dass sie die gewünschten Ergebnisse liefern. Dabei geht es darum, die richtige Struktur und Sprache und den richtigen Kontext in der Anfrage zu wählen. Die Qualität der Ergebnisse für Textgenerierung, Bilderstellung oder Datenanalyse hängt stark von der Formulierung der Eingabe ab. Daher ist Prompt Engineering eine Schlüsseltechnik, um Künstliche Intelligenz effizient und zielgerichtet zu nutzen.

Prompt Injection
Als Prompt Injection bezeichnet man speziell gestaltete Eingaben, um KI-Modelle zu manipulieren oder unerwünschte Antworten zu erzwingen. Solche Angriffe können dazu führen, dass die KI vertrauliche Informationen preisgibt, falsche Anweisungen ausführt oder ihre eigenen Sicherheitsvorkehrungen umgeht.

R

Reinforcement Learning (RL)
Reinforcement Learning oder bestärkendes Lernen ist ein Teilbereich des maschinellen Lernens, bei dem ein Agent durch Interaktionen mit einer Umgebung lernt, Entscheidungen zu treffen. Das Ziel des Agenten ist es, durch Versuch und Irrtum eine optimale Strategie zu entwickeln, um Belohnungen zu maximieren.

S

System Prompt
Ein System Prompt ist eine Anweisung, die einem KI-Modell wie ChatGPT mitgeschickt wird, um dessen Verhalten, Rolle und Reaktionsweise zu steuern. Es dient dazu, den Rahmen und die „Persönlichkeit“ der KI festzulegen, bevor die Interaktion mit dem Benutzer beginnt.

T

Tokenisierung
Tokenisierung ist der Prozess, bei dem ein Text in kleinere Einheiten, sogenannte Tokens, zerlegt wird. Diese Tokens sind die grundlegenden Bausteine, die ein KI-Modell verarbeitet. Je nach Kontext können Tokens einzelne Wörter, Zeichen oder sein.

Transfomer
Ein Transformer ist eine KI-Architektur, die 2017 im Paper „Attention is All You Need“ von Vaswani et al. vorgestellt wurde. Sie hat die Verarbeitung von Sequenzdaten revolutioniert, insbesondere in der natürlichen Sprachverarbeitung. Transformer sind die Grundlage für viele Modelle wie GPT, BERT und T5.

Z

Zero-Shot Learning
Zero-Shot Learning ist eine Methode des maschinellen Lernens. Dabei löst ein KI-Modell Aufgaben, ohne vorher für diese trainiert worden zu sein. Stattdessen nutzt es allgemeines Wissen und bereits erlernte Verbindungen, um sich neue Kategorien oder Aufgaben zu erschließen. Beispielsweise, wenn ein KI-Modell ein Objekt in einem Bild korrekt identifiziert, obwohl es dieses in den Trainingsdaten nie gesehen hat.

Wie hat dir dieser Artikel gefallen?

Durchschnittliche Bewertung / 5. Anzahl Bewertungen:

Share via
Copy link
Powered by Social Snap