KI/AI Glossar

Auf mehrfachen Wunsch aus den Schulungen ChatGPT & Co. für Product Owner und Product Manager und KI-Wissen und KI-Kompetenz — praxisnahe Schulung gemäß EU AI Act Art. 4 stellen wir ein Glossar für die wichtigsten Begriffe aus dem Bereich AI/KI zur Verfügung. Es ist natürlich nicht vollständig, wenn Euch ein Begriff fehlt, meldet Euch gern.

Falls Euch News von improuv zu den Themen KI/AI und weiteren spannenden Themen interessieren, wollt Ihr vielleicht den improuv-Newsletter abonnieren? Updates erreichen Euch dann circa ein Mal im Monat.

Und schließlich möchten wir noch auf unsere Konferenz Agile World im Juli 2025 in München hinweisen, auf der wir einen der Schwerpunkte dieses Jahr auf das Thema Künstliche Intelligenz legen werden.

A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z

A

Activation function: Eine Activation function ist eine Funktion, die dazu verwendet wird, den Aktivierungsgrad einer Einheit (Neuron) in ein Ausgangssignal umzuwandeln.

AI Act: siehe EU AI Act

AI Ethics: Prinzipien, die darauf abzielen, zu verhindern, dass KI Menschen schadet – etwa durch Vorgaben, wie KI-Systeme Daten sammeln oder mit Vorurteilen umgehen sollten.

AI Safety: Ein interdisziplinäres Forschungsfeld, das sich mit den langfristigen Auswirkungen von KI befasst und Strategien entwickelt, um etwa das Entstehen einer feindlich agierenden Superintelligenz zu verhindern.

AI agents / Autonome Agenten: Ein autonom handelndes, intelligentes digitales System, das Entscheidungen trifft und Aufgaben erfüllt – beispielsweise ein selbstfahrendes Auto, das mittels sensorischer Eingaben, GPS und Algorithmen die Straße eigenständig navigiert. Neuere Ansätze zeigen, dass solche Agenten sogar eigene Kulturen oder Kommunikationsformen entwickeln können.

Agentive: Systeme oder Modelle, die eigenständig und im Vordergrund agieren, um Ziele zu erreichen, ohne dass ständig menschliches Eingreifen nötig ist.

Algorithmen: Eine Folge von Anweisungen, die es einem Computerprogramm ermöglichen, auf bestimmte Weise zu lernen und Daten zu analysieren – zum Beispiel Muster zu erkennen, daraus zu lernen und Aufgaben selbstständig zu erledigen.

Alignment: Die Feinabstimmung eines KI-Systems, um sicherzustellen, dass es das gewünschte Ergebnis erzielt – etwa in der Inhaltsmoderation oder bei der Interaktion mit Menschen.

Amara’s law: Das Phänomen, dass die gesellschaftlichen Erwartungen an den kurzfristigen Einfluss einer Technologie oft überschätzt, ihr langfristiger Einfluss jedoch unterschätzt wird.

Anthropomorphismus: Die Tendenz, nicht-menschlichen Objekten oder Systemen menschliche Eigenschaften zuzuschreiben – beispielsweise zu glauben, ein Chatbot könne Gefühle wie Glück oder Traurigkeit empfinden.

Artificial General Intelligence (AGI): Ein Konzept, das eine fortgeschrittene Form der KI beschreibt, die in der Lage ist, eine breite Palette von Aufgaben – oft weit über menschliche Fähigkeiten hinaus – zu bewältigen und sich selbstständig weiterzuentwickeln.

Artificial Intelligence (AI, KI): Der Einsatz von Technologie zur Simulation menschlicher Intelligenz – etwa in Computerprogrammen oder Robotern –, um Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern.

Artificial Narrow Intelligence (ANI): Eine Form der KI, die auf die Erledigung spezifischer Aufgaben in eng begrenzten Anwendungsbereichen spezialisiert ist. Alle heute existierenden KI-Systeme gelten als ANI, da sie nur vordefinierte Probleme lösen können.


B

Backpropagation: Ein Lernverfahren in neuronalen Netzwerken, bei dem der Fehler am Ausgang rückwärts durch das Netzwerk propagiert wird, um die Gewichte der Neuronen schrittweise anzupassen. Bayesian learning: Eine Methode des maschinellen Lernens, bei der Wahrscheinlichkeiten fortlaufend an neue Daten angepasst werden, um Annahmen über Modelle zu verfeinern.

Benchmark: Ein standardisierter Test oder eine Reihe von Tests, mit denen die Leistung von Modellen oder Systemen gemessen und miteinander verglichen wird.

Bias: In KI-Systemen bezeichnet Bias fehlerhafte Vorhersagen, die aus den in den Trainingsdaten enthaltenen Vorurteilen resultieren – beispielsweise können Stereotypen dazu führen, dass bestimmten Gruppen fälschlicherweise bestimmte Eigenschaften zugeschrieben werden.

Binary classification problems: Aufgaben, bei denen ein System Eingaben in genau zwei Kategorien (etwa 0 oder 1) einordnen muss.

Binet-Simon scale: Ein Messinstrument zur Bestimmung des Intelligenzniveaus, das ursprünglich dazu diente, Kinder mit unterdurchschnittlicher Intelligenz zu identifizieren.

Bodily-kinaesthetic intelligence: Die Fähigkeit, die eigenen Körperbewegungen präzise zu steuern und Objekte geschickt zu handhaben.

Broad AI: KI-Systeme, die in der Lage sind, mehrere Aufgaben zu bewältigen – wenn auch meist in verwandten Bereichen – im Gegensatz zu spezialisierten, einseitigen Systemen.


C

Centaur approach: Ein Ansatz, bei dem KI die menschliche Arbeitskraft nicht ersetzt, sondern unterstützt und ergänzt.

Chatbot: Ein Programm, das über Textnachrichten mit Menschen kommuniziert und dabei versucht, menschliche Sprache zu simulieren.

ChatGPT: Ein von OpenAI entwickelter KI-Chatbot, der auf großen Sprachmodellen basiert und in der Lage ist, menschenähnliche Konversationen zu führen.

Chinese room experiment: Ein Gedankenexperiment von John Searle, das die These illustrieren soll, dass Maschinen zwar Sprache verarbeiten können, aber kein echtes Verständnis besitzen.

Classification: Der Prozess, ein Modell zu erstellen, das Daten in vorgegebene Kategorien einteilt, indem es anhand von Merkmalen die Gruppenzugehörigkeit bestimmt. Clustering: Ein unüberwachter Lernansatz, bei dem Daten in Gruppen mit ähnlichen Eigenschaften zusammengefasst werden. Cognition: Der Prozess, durch den sensorische Informationen verarbeitet, reduziert, gespeichert, abgerufen und genutzt werden.

Complements: Alle zusätzlichen Komponenten – wie Daten, Infrastruktur, Trainingsmethoden und menschliches Urteilsvermögen –, die neben Algorithmen und Modellen notwendig sind, damit KI-Systeme in der Praxis effektiv funktionieren.

Complexity barrier: Die Vorstellung, dass einfache Systeme durch eine imaginäre Grenze von komplexeren Systemen getrennt sind, weil bei zunehmender Komplexität das Finden und Überprüfen von Lösungen exponentiell schwieriger wird.

Convolutional neural network (CNN): Ein neuronales Netzwerk, bei dem einzelne Neuronen nur mit einem kleinen, lokalen Ausschnitt der Eingabedaten verbunden sind, um so die Anzahl der Verbindungen und zu lernenden Parameter zu reduzieren.

D

Data: Bekannte oder angenommene Fakten, die als Grundlage für Überlegungen, Berechnungen oder Entscheidungen dienen.

Data Augmentation: Die Technik, vorhandene Daten zu remixen oder zu erweitern, um einen vielfältigeren Datensatz für das Training von KI-Systemen zu erstellen.

Decision-making: Der Prozess, bei dem aus mehreren Alternativen eine Handlungsoption ausgewählt wird. Decision trees: Baumartige Modelle, die mithilfe von if‑then-Regeln Entscheidungen treffen, indem sie Daten schrittweise in Kategorien unterteilen.

Deep Blue: Der IBM-Computer, der 1997 den Schachweltmeister in einem Sechs-Partien-Match besiegte.

Deepfake: Eine computergenerierte Fälschung, bei der KI eingesetzt wird, um täuschend echte Bilder oder Videos von Personen zu erstellen. DeepMind: Ein britisches KI-Unternehmen, das 2012 von Google übernommen wurde und für seine Fortschritte in Bereichen wie Deep Learning bekannt ist.

Deep neural networks: Neuronale Netzwerke mit mehreren verborgenen Schichten, in denen jede Schicht zunehmend abstraktere Merkmale der Eingabe erlernt.

Deep learning: Methoden, bei denen Modelle mit vielen Abstraktionsebenen – von rohen Eingaben bis zu hochkomplexen Merkmalen – trainiert werden, um beispielsweise Bilder, Sprache oder Texte zu erkennen und zu verarbeiten.

Diffusion models: Modelle, die den Bildentstehungsprozess durch sukzessives Hinzufügen und Entfernen von Rauschen simulieren, um so realistische Bilder zu erzeugen. Disruptive innovation: Eine Veränderung, die so tiefgreifend ist, dass bestehende Marktteilnehmer entweder folgen müssen oder zurückbleiben.

DSGVO: siehe GDPR


E

Emergent Behavior: Das Phänomen, dass KI-Modelle – insbesondere große Sprachmodelle – Fähigkeiten oder Verhaltensweisen zeigen, die nicht explizit trainiert wurden, sondern unbeabsichtigt aus ihrer komplexen Struktur entstehen.

Emotional intelligence (EQ): Die Fähigkeit, eigene und fremde emotionale Zustände zu erkennen, zu verstehen und zu steuern, um damit verbundene Probleme zu lösen.

Encoder-decoder: Modelle, die Eingabedaten (etwa Bilder oder Videos) in eine latente Repräsentation überführen und daraus mittels Decodierung beschreibende Ausgaben wie Sätze generieren.

End-to-end learning (E2E): Ein Deep-Learning-Ansatz, bei dem ein Modell die gesamte Aufgabe von Anfang bis Ende in einem Schritt lernt, anstatt sie in einzelne sequenzielle Teilschritte zu zerlegen.

Error: Die Summe der Differenzen zwischen den tatsächlichen Ausgaben eines Netzwerks und den erwarteten Werten aus den Trainingsdaten, die zur Anpassung der Gewichte genutzt wird.

EU AI Act: Ein von der Europäischen Union vorgeschlagenes Regelwerk für AI‑Systeme, von dem der erste Teil im August 2024 in Kraft getreten ist.

Evaluation: Der Prozess, bei dem die Leistung eines KI-Modells anhand von Metriken und Testdatensätzen gemessen wird. Expert system: Ein Computersystem, das menschliches Expertenwissen mithilfe von if‑then-Regeln nutzt, um komplexe Probleme zu lösen.

F

False positive: Ein Fehler, bei dem ein System fälschlicherweise anzeigt, dass ein bestimmtes Kriterium erfüllt ist.

False negative: Ein Fehler, bei dem ein System fälschlicherweise anzeigt, dass ein bestimmtes Kriterium nicht erfüllt ist.

Feature extraction: Die Technik, rohe Daten in handhabbare, aussagekräftige Merkmale zu überführen, ohne dabei die ursprüngliche Information zu verfälschen. Fine-tuning: Das Anpassen eines bereits trainierten neuronalen Netzwerks, um dessen Leistung für eine spezifische Aufgabe weiter zu optimieren, ohne von Null zu beginnen. Forecasting: Die Vorhersage zukünftiger Entwicklungen, etwa der Nachfrage, basierend auf aktuellen und historischen Daten. Forward propagation: Der Prozess, bei dem in einem neuronalen Netzwerk aus einem Input ein Output generiert wird, indem die Daten schichtweise weitergeleitet werden. Foundation models: Modelle, die auf großen, unbeschrifteten Datensätzen vortrainiert werden und mit minimalem Fine-tuning als Grundlage für vielfältige Anwendungen dienen.

Frontier AI: Bezeichnet Spitzenforschung und Anwendungen im Bereich der KI, die die aktuellen technologischen und theoretischen Grenzen erweitern.

Fuzzy logic: Eine Erweiterung der klassischen Logik, bei der Aussagen einen Grad der Wahrheit zwischen 0 und 1 annehmen können – ideal zur Beschreibung unscharfer, vager Konzepte.

G

GDPR / DSGVO: Die Datenschutz-Grundverordnung, die in der EU einheitliche Regeln für den Umgang mit personenbezogenen Daten festlegt, um die Privatsphäre der Bürger zu schützen.

General-purpose technology: Technologien, die das Wirtschaftswachstum fördern und sowohl den Alltag als auch Geschäftsprozesse grundlegend verändern. Generative AI: Eine inhaltsgenerierende Technologie, die KI nutzt, um anhand großer Mengen an Trainingsdaten neue Texte, Bilder, Videos oder Codes zu erstellen, oft indem sie statistisch wahrscheinliche Muster reproduziert. Generative adversarial networks (GANs): Ein generatives Modell, das aus zwei konkurrierenden neuronalen Netzen besteht – einem Generator, der neue Inhalte erstellt, und einem Diskriminator, der deren Authentizität bewertet.

Generative pre-trained transformer (GPT) models: Modelle, die auf der Transformer-Architektur basieren und vorab mit riesigen Textdatensätzen trainiert wurden, um Sprache zu verstehen und menschenähnliche Texte zu generieren.

Gewicht: Siehe Weight

Graph neural network (GNN): Neuronale Netzwerke, die direkt auf Graphen operieren, um Vorhersagen für einzelne Knoten, Kanten oder den gesamten Graphen zu treffen. Graphics processing unit (GPU): Ein spezialisierter Hardwarebeschleuniger, der besonders für rechenintensive Aufgaben wie Matrixberechnungen in der Grafikdarstellung und im maschinellen Lernen eingesetzt wird.

H

Halluzination: Das Phänomen, dass ein KI-System falsche oder unsinnige Ausgaben generiert – oft mit hoher Überzeugung, obwohl die Antwort faktisch inkorrekt ist, wie etwa bei fehlerhaften historischen Angaben.

Hebbian learning rule: Die Regel, dass die Verbindung zwischen zwei Neuronen verstärkt wird, wenn diese gleichzeitig aktiviert werden, was als Grundlage für Lernprozesse in neuronalen Netzwerken dient.

Hidden layer: Eine oder mehrere Schichten von Neuronen, die zwischen der Eingabe- und der Ausgabeschicht eines neuronalen Netzwerks liegen und komplexe Merkmale erlernen.

Human in the loop (HITL): HITL bezeichnet ein Verfahren im Bereich Künstliche Intelligenz (KI) und Maschinelles Lernen (ML), bei dem menschliche Experten aktiv in den Trainings-, Validierungs- oder Entscheidungsprozess eingebunden werden. HITL wird oft in Bereichen mit hohen Sicherheitsanforderungen, wie autonomem Fahren, Medizin oder Finanzwesen, eingesetzt, um die Zuverlässigkeit und Fairness von KI-Systemen zu erhöhen.

Hype cycle: Eine grafische Darstellung, die den Verlauf von Erwartungen und der Marktreife neuer Technologien von anfänglicher Überbegeisterung über Ernüchterung bis hin zu einem realistischen Verständnis abbildet.

I

Image processing: Die Anwendung mathematischer Methoden auf Bilder, um diese zu transformieren – beispielsweise zum Glätten, Schärfen oder Kontrastieren – unabhängig von weitergehender intelligenter Analyse.

Incremental innovation: Eine allmähliche Verbesserung oder Veränderung, die sich über die Zeit hinweg entwickelt und bestehende Produkte oder Prozesse optimiert.

Inference: Der Prozess, bei dem ein KI-Modell anhand seiner Trainingsdaten Schlüsse zieht, um neue Inhalte wie Texte oder Bilder zu generieren.

Intelligence: Die Fähigkeit, Probleme zu lösen oder Produkte zu erschaffen, die in einem kulturellen Kontext als wertvoll angesehen werden. Interpersonal intelligence: Die Fähigkeit, die Emotionen, Motivationen und Verhaltensweisen anderer Menschen zu erkennen und darauf angemessen zu reagieren. Intrapersonal intelligence: Die Fähigkeit, die eigenen Gefühle zu erkennen, zu unterscheiden und als Grundlage für Entscheidungen und Verhaltensweisen zu nutzen.

K

K-means: Ein unüberwachter Lernalgorithmus, der unbeschriftete Daten in eine vordefinierte Anzahl von Clustern einteilt, basierend auf der Ähnlichkeit ihrer Merkmale. K-nearest neighbour (KNN): Ein einfacher Klassifikationsalgorithmus, der neue Datenpunkte anhand ihrer Ähnlichkeit zu den nächstgelegenen Punkten im Trainingsdatensatz klassifiziert. Knowledge-based AI: Ein Ansatz der KI, der explizites, oft regelbasiertes Wissen nutzt, um Probleme zu lösen – ein Paradigma, das vor den modernen, datengetriebenen Methoden vorherrschte.

L

Large language model (LLM): Ein KI-Modell, das auf enormen Mengen an Textdaten trainiert wird, um Sprache zu verstehen und menschenähnliche Antworten zu generieren.

Large multimodal model (LMM): Ein Modell, das in der Lage ist, Informationen aus verschiedenen Modalitäten – wie Text, Bild, Audio und Video – zu integrieren und zu verarbeiten.

LASSO: Ein Regularisierungsverfahren (Least Absolute Shrinkage and Selection Operator), das die Summe der absoluten Werte der Koeffizienten bestraft, um Modelle zu vereinfachen und Überanpassung zu vermeiden.

Learning: Der Prozess, durch den ein Agent seine Leistung verbessert, indem er aus Beobachtungen der Welt und vergangenen Erfahrungen Schlüsse zieht.

Linear regression: Eine Methode, die eine lineare Beziehung zwischen unabhängigen und abhängigen Variablen herstellt, um Vorhersagen zu treffen.

Linguistic intelligence: Die Fähigkeit, Sprache in all ihren Facetten – Klänge, Rhythmen, Bedeutungen und Funktionen – zu verstehen und zu nutzen.

Logical-mathematical intelligence: Die Fähigkeit, logische oder numerische Muster zu erkennen und komplexe, mehrstufige Argumentationsketten zu entwickeln.

Logistic function: Eine S-förmige Funktion, die reelle Zahlen in Werte zwischen 0 und 1 abbildet und häufig zur Modellierung von Wachstumsprozessen verwendet wird.

Logistic regression: Eine statistische Methode, die den Zusammenhang zwischen einer binären abhängigen Variable und einer Reihe von unabhängigen Variablen untersucht.

Long short-term memory (LSTM): Eine spezielle Art von rekurrenten neuronalen Netzwerken, die entwickelt wurden, um langfristige Abhängigkeiten in sequentiellen Daten besser zu erfassen.


M

Machine Learning (ML): Ein Teilbereich der KI, der sich mit der Entwicklung von Algorithmen beschäftigt, die es Computern ermöglichen, ohne explizite Programmierung aus Daten zu lernen und Vorhersagen zu treffen.

Machine learning operations (MLOps): Eine Sammlung von Praktiken, die darauf abzielen, den Betrieb und die Wartung von KI-Modellen in der Produktion zu optimieren, indem Softwareentwicklung und KI-Workflows integriert werden.

Mixture of Experts (MoE): Eine Architektur, bei der mehrere spezialisierte Modelle („Experten“) dynamisch ausgewählt werden, um unterschiedliche Teile der Eingabedaten zu verarbeiten.

Multiagent: Systeme, in denen mehrere interagierende Agenten – sei es in Kooperation oder im Wettbewerb – gemeinsam komplexe Aufgaben lösen.

Multilayer perceptron (MLP): Ein tiefer, feedforward neuronaler Netzwerktyp, der aus einer Eingabeschicht, einer oder mehreren verborgenen Schichten und einer Ausgabeschicht besteht und typischerweise für überwachte Lernprobleme eingesetzt wird.

Multimodale AI: Eine Art von KI, die in der Lage ist, verschiedene Eingabetypen wie Text, Bilder, Videos und Sprache zu verarbeiten, um komplexe Aufgaben zu lösen.

Multiple intelligences theory: Eine Theorie, die vorschlägt, dass Intelligenz nicht monolithisch ist, sondern aus mehreren, voneinander unabhängigen Fähigkeiten besteht. Musical intelligence: Die Fähigkeit, musikalische Elemente wie Rhythmus, Tonhöhe und Klangfarbe zu verstehen, zu erzeugen und zu schätzen. MYCIN: Ein frühes Expertensystem zur Diagnose von Blutinfektionen, das als Unterstützung für medizinisches Fachpersonal entwickelt wurde.

N

Naïve Bayes model: Ein probabilistisches Modell, das mithilfe des Bayesschen Theorems unter der Annahme bedingter Unabhängigkeit schnelle Vorhersagen aus Trainingsdaten ermöglicht. NAFTA: Ein Akronym, das im Kontext von KI-Implementierungen für die Bewertung von Business Cases steht – bestehend aus den Elementen Needs, Alignment, Finance, Test und Analyse.

Natural language processing (NLP): Ein Zweig der KI, der mithilfe von maschinellen Lernverfahren und linguistischen Regeln Computern das Verstehen und Verarbeiten menschlicher Sprache ermöglicht.

Neural radiance field (NeRF): Ein vollständig verbundenes neuronales Netzwerk, das aus unvollständigen 2D-Bildern neue Perspektiven komplexer 3D-Szenen rekonstruieren kann.

Neural networks: Rechnerische Modelle, die vom menschlichen Gehirn inspiriert sind und aus miteinander verbundenen Neuronen bestehen, um Muster in Daten zu erkennen und daraus zu lernen.

Neuron: Die Grundeinheit eines neuronalen Netzwerks, die Signale empfängt, verarbeitet und weiterleitet – analog zu Nervenzellen im menschlichen Gehirn.

Non-linear regression: Eine Methode, um nichtlineare Zusammenhänge zwischen abhängigen und unabhängigen Variablen zu modellieren. NP-complete: Eine Klasse von Problemen, die als besonders rechenintensiv gelten, weil es keine effiziente Lösungsmethode gibt, deren Lösung aber schnell verifiziert werden kann. NP-hard: Probleme, für die es keine bekannte effiziente Lösung gibt, deren Lösung aber – einmal gefunden – schnell überprüfbar ist.

O

Oja’s learning rule: Eine Erweiterung der Hebbian learning rule, die verhindert, dass die Gewichte in einem neuronalen Netzwerk unendlich wachsen, indem sie sie normiert hält. Output: Das Ergebnis, das ein neuronales Netzwerk nach der Verarbeitung eines Inputs erzeugt. Overfitting: Ein Zustand, in dem ein Modell die Trainingsdaten zu genau „auswendig lernt“ und deshalb auf neuen, unbekannten Daten schlechtere Vorhersagen trifft.

P

Parametric updating: Der Einsatz von überwachten Lernverfahren, um kritische Parameter eines Modells – beispielsweise in Lieferketten – dynamisch anzupassen. Perceptron: Ein einfacher Algorithmus zur binären Klassifikation, der als Vorläufer komplexerer neuronaler Netzwerke gilt. Pervasive technology: Technologien, die in alltägliche Geräte integriert werden, um rechenintensive Aufgaben zu übernehmen und so den Aufwand für den Endnutzer zu verringern. Pixel: Die kleinste darstellbare Einheit eines digitalen Bildes, deren Kombination ein vollständiges Bild, Video oder Text erzeugt. P-problem: Eine Klasse von Problemen, deren Lösung in polynomieller Zeit gefunden und überprüft werden kann. Prediction: Die Vorhersage zukünftiger Ereignisse oder Zustände anhand vorhandener Daten. Predictive policing: Der Einsatz quantitativer Analysemethoden, um potenzielle Verbrechensschauplätze zu identifizieren und präventive Maßnahmen zu unterstützen.

Perplexity: Der Name eines KI-gestützten Chatbots und einer Suchmaschine, der mithilfe großer Sprachmodelle neuartige, oft überraschende Antworten generiert und dabei auch auf aktuelle Internetdaten zugreift. Die kostenpflichtige Version, Perplexity Pro, unterstützt zusätzliche Funktionen wie Dokumentenanalyse und Bildgenerierung.

Prompt engineering: Das gezielte Formulieren von Eingabeaufforderungen, um von einem KI-System die gewünschten Ergebnisse zu erhalten.

Prompt: Die Frage oder Anweisung, die in ein KI-System eingegeben wird, um eine Antwort zu provozieren.

Prompt Chaining: Die Fähigkeit eines KI-Systems, Informationen aus vorherigen Interaktionen zu nutzen, um zukünftige Antworten zu verbessern oder anzupassen.


Q

Q-learning: Ein Verfahren im Reinforcement Learning, bei dem Qualitätswerte (Q-Werte) für Aktionen in verschiedenen Zuständen erlernt werden, um so langfristig die Belohnung zu maximieren.

Quantisierung: Eine Technik, bei der die numerische Präzision der Modellparameter (z. B. von 32-Bit-Floats zu 16- oder 8-Bit-Werten) reduziert wird, um Speicherbedarf und Rechenleistung zu verringern, ohne die Genauigkeit signifikant zu beeinträchtigen.


R

Random decision forests: Ein Ensemble-Algorithmus, der viele Decision Trees kombiniert, um stabilere und genauere Vorhersagen zu erzielen.

Reasoning: Der rationale Denkprozess, bei dem auf Basis von Fakten, Analysen und logischen Schlussfolgerungen eine Entscheidung oder Vorhersage getroffen wird.

Recommendation engines: Systeme, die mithilfe von Machine-Learning-Methoden vorhersagen, welche Produkte oder Inhalte für einen Nutzer am relevantesten sind.

Recurrent neural network (RNN): Neuronale Netzwerke mit Schleifen, die es ermöglichen, zeitliche oder sequentielle Abhängigkeiten in Daten zu modellieren, indem sie Informationen von einer Zeitschrittiteration zum nächsten weitergeben.

Recursive neural network: Eine spezielle Form von neuronalen Netzwerken, die strukturelle Daten, wie Bäume, verarbeiten können, um hierarchische Beziehungen zu lernen. Regression: Eine statistische Methode zur Abschätzung des Zusammenhangs zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen. Regularisation: Techniken, die eingesetzt werden, um Modelle zu vereinfachen und Überanpassung (Overfitting) zu verhindern, etwa durch Bestrafung großer Koeffizienten. Reinforcement learning: Ein Lernparadigma, bei dem ein Agent durch Ausprobieren von Aktionen in einer Umgebung lernt, welche Handlungen zu maximalen Belohnungen führen.

Reinforcement Learning from AI Feedback (RLAIF): Ein Ansatz, bei dem KI-Systeme durch Rückmeldungen anderer KI-Modelle optimiert werden.

Reinforcement Learning from Human Feedback (RLHF): Ein Verfahren, bei dem KI-Modelle auf Basis von menschlichem Feedback trainiert werden, um ihr Verhalten besser an menschliche Erwartungen anzupassen.

Replication: Das Problem, dass die Entscheidungen eines KI-Systems oft nicht reproduzierbar sind, sodass Entwickler die genauen Gründe für eine bestimmte Entscheidung nicht nachvollziehen können.

Retrieval-Augmented Generation (RAG): Ein Verfahren, das vortrainierte Sprachmodelle mit Information-Retrieval-Techniken kombiniert, um präzisere und aktuellere Antworten zu generieren.

Ridge regression: Eine Methode zur linearen Regression, bei der eine Strafe auf die quadrierte Summe der Koeffizienten erhoben wird, um Probleme durch Multikollinearität zu mildern.

Right to explanation: Das in der GDPR verankerte Recht von Individuen, eine nachvollziehbare Erklärung für automatisierte Entscheidungen zu erhalten. Robo-advisor: Online-Investmentplattformen, die algorithmusbasierte Finanzberatung bieten und traditionelle Beraterleistungen nachahmen. Robotics: Der Bereich der Technik, der sich mit der Entwicklung und dem Einsatz programmierbarer, oft autonom agierender Maschinen („Roboter“) befasst.


S

Sampling: Die Methode, durch Untersuchung einer Teilmenge von Daten Aussagen über die gesamte Population zu treffen.

Semi-supervised learning: Ein Lernansatz, bei dem Modelle sowohl mit gelabelten als auch ungelabelten Daten trainiert werden, um die Genauigkeit zu erhöhen und den Trainingsaufwand zu reduzieren.

SHRDLU: Ein frühes KI-System, das in einer simulierten Blocks World mittels eines virtuellen Roboterarms Objekte gemäß Benutzeranweisungen anordnete.

Singularity: Die Hypothese, dass KI-Systeme irgendwann ein Niveau erreichen, auf dem sie die menschliche Intelligenz übertreffen und eigenständig exponentiell fortschreiten können.

Sigmoid function: Siehe Logistic function.

Small language model (SLM): Ein kompaktes Sprachmodell, das für spezifische Aufgaben entwickelt wurde und im Vergleich zu großen Modellen weniger Rechenressourcen benötigt.

Small multimodal models (SMM): Kompakte KI-Modelle, die mehrere Datentypen (z. B. Text, Bild) integrieren und für spezialisierte Aufgaben optimiert sind.

Spatial intelligence: Die Fähigkeit, visuelle und räumliche Informationen präzise wahrzunehmen, zu verarbeiten und in Handlungen umzusetzen.

Speech recognition: Die Fähigkeit eines elektronischen Geräts, gesprochene Sprache zu erkennen und zu verstehen.

STANLEY: Der Name des ersten autonomen Fahrzeugs, das die DARPA Challenge in unter sieben Stunden bei einer Durchschnittsgeschwindigkeit von 20 mph absolvierte.

Strong AI hypothesis: Die Behauptung, dass Maschinen nicht nur intelligent erscheinen, sondern tatsächlich denken können – eine Annahme, die von vielen kritisch gesehen wird.

Structured data: Daten, die in einem fest definierten Format (z. B. in Datenbanken) organisiert sind und dadurch leicht zugänglich und auswertbar werden.

Supervised learning: Ein Lernansatz, bei dem ein Modell anhand von gelabelten Beispielen trainiert wird, um korrekte Vorhersagen zu treffen.

Support vector machine: Ein überwacht lernender Algorithmus, der Datenpunkte in einem hochdimensionalen Raum trennt und sowohl für Klassifikation als auch Regression eingesetzt werden kann.

Stochastic Parrot: Eine Analogie, die verdeutlichen soll, dass große Sprachmodelle zwar menschliche Wörter imitieren, dabei aber kein echtes Verständnis der Bedeutung besitzen – ähnlich wie ein Papagei, der nachplappert.

Style Transfer: Die Fähigkeit einer KI, den visuellen Stil eines Bildes auf den Inhalt eines anderen Bildes zu übertragen – etwa ein Porträt im Stil eines berühmten Künstlers neu zu interpretieren.


T

Temperatur: Ein Parameter, der steuert, wie zufällig die Ausgabe eines Sprachmodells ist – höhere Werte führen zu kreativeren, aber auch unvorhersehbareren Ergebnissen.

Text-to-Image Generation: Die Erzeugung von Bildern basierend auf textuellen Beschreibungen durch ein KI-System.

Tokens: Kleine, verarbeitbare Einheiten von Text – oft etwa vier Zeichen im Englischen oder etwa drei Viertel eines Wortes –, die von Sprachmodellen zur Verarbeitung von Eingaben genutzt werden.

Training Data: Die Datensätze, die zum Trainieren von KI-Modellen verwendet werden, einschließlich Text, Bildern, Code oder anderen Formen von Daten.

Transformer Model: Eine neuronale Netzwerkarchitektur, die mittels Attention-Mechanismen den Kontext ganzer Sätze oder Bildausschnitte erfasst, anstatt sequenziell Wort für Wort zu arbeiten.

Tokenisation: Der Prozess, bei dem Eingabetexte in einzelne Tokens (Worte, Subworte oder Zeichen) zerlegt werden, um sie von KI-Modellen verarbeiten zu lassen.

Training error: Der Fehler, der während des Trainings eines Modells auftritt, gemessen an der Differenz zwischen den Modellvorhersagen und den tatsächlichen Werten. Training set: Ein Datensatz mit gelabelten Beispielen, der verwendet wird, um ein KI-Modell zu trainieren. Transformers: Neuronale Netzwerke, die mithilfe von Attention-Mechanismen den Kontext in sequentiellen Daten erfassen und so Aufgaben wie Übersetzung oder Textgenerierung in Echtzeit ermöglichen.

Travelling salesman problem: Ein klassisches Optimierungsproblem, bei dem ein Verkäufer die kürzeste Rundreise finden muss, um mehrere Städte zu besuchen und zum Ausgangspunkt zurückzukehren – unter Berücksichtigung von Beschränkungen wie begrenztem Treibstoff.

Turing Test: Ein Test, der – benannt nach Alan Turing – die Fähigkeit einer Maschine bewertet, sich so menschlich zu verhalten, dass ein Fragesteller nicht zwischen Mensch und Maschine unterscheiden kann.

U

Underfitting: Ein Zustand, in dem ein Modell weder die Trainingsdaten noch neue Daten adäquat abbildet, was zu schlechten Vorhersagen führt. Unstructured data: Informationen, die nicht in ein festes, relationales Datenmodell passen – wie etwa freie Texte, Bilder oder Videos.

Unsupervised learning: Ein Lernansatz, bei dem ein Modell ohne gelabelte Daten die zugrunde liegende Struktur in den Daten eigenständig erkennt.


V

Validation set: Ein Teil der Daten, der während des Trainings eines Modells zurückgehalten wird, um dessen Leistung zu überprüfen und das Modell feinabzustimmen. Variational autoencoders (VAE): Probabilistische generative Modelle, die mithilfe eines Encoders Eingaben in einen latenten Raum überführen und diese mittels eines Decoders rekonstruieren, um neue Datenpunkte zu erzeugen. Variable: Eine Größe, die in einem mathematischen oder experimentellen Kontext variieren kann – üblicherweise durch einen Buchstaben wie x, y oder z repräsentiert. Vector database: Eine Datenbank, die Informationen als hochdimensionale Vektoren speichert, um effiziente Ähnlichkeitssuchen und Vergleiche zwischen Datensätzen zu ermöglichen. Vector embedding: Die numerische Darstellung von Daten (wie Wörtern oder Bildern) in einem kontinuierlichen Vektorraum, sodass semantische Zusammenhänge erfasst und verglichen werden können. Video processing: Die Anwendung von Algorithmen, um aus Videomaterial Informationen zu extrahieren oder es zu analysieren – ähnlich der Bildverarbeitung, jedoch bei bewegten Bildern.

Visionary (Microsoft Bing): Eine Suchmaschine von Microsoft, die mithilfe von KI-gestützten Techniken (ähnlich wie Google Gemini) aktuelle, kontextbezogene Suchergebnisse liefert.


W

Watson: Ein von IBM entwickeltes KI-System, das zunächst als Supercomputer in der TV-Show „Jeopardy!“ berühmt wurde und heute in verschiedensten Sektoren zur Steigerung von Effizienz und Sicherheit eingesetzt wird.

Weak AI, narrow AI: KI, die ausschließlich auf die Ausführung spezifischer Aufgaben beschränkt ist und nicht in der Lage ist, über diese vordefinierten Bereiche hinaus allgemeine Problemlösungsfähigkeiten zu entwickeln.

Weight: Numerische Werte, die in neuronalen Netzwerken die Stärke und Richtung der Verbindung zwischen Neuronen bestimmen und so den Einfluss einzelner Signale regulieren.


Z

Zero-Shot: Ein Testverfahren, bei dem ein KI-Modell eine Aufgabe ohne spezifisches Training für diese Aufgabe bewältigen muss – etwa einen Löwen zu erkennen, obwohl es nur auf Tiger trainiert wurde.

Ideen, Fragen, Wünsche? Kontaktieren Sie uns!

Sacha Storz

Sacha Storz

Als Senior Agile Coach mit langjähriger Erfahrung in der Begleitung von Teams zur mehr Effektivität und Innovation hat Sacha Storz ein tiefes Verständnis für das transformative Potenzial der Künstlichen Intelligenz. Durch vielfältige Weiterbildungen und intensive Zertifizierungskurse im Bereich Künstliche Intelligenz von renommierten Institutionen wie unter anderem der Stanford University, der University of Pennsylvania oder IBM bringt er das nötige Know-how mit, um den Teilnehmer:innen zu vermitteln, wie sie KI gezielt einsetzen können, um ihre tägliche Arbeit effektiver zu gestalten.

Noch Fragen zum Training?

Nadine Bleck ist Account Managerin und gibt gerne Antworten auf alle weiteren Fragen rund um unsere Trainings.

Artikel wurde in den Warenkorb gelegt.