Auf mehrfachen Wunsch aus den Schulungen ChatGPT & Co. für Product Owner und Product Manager und KI-Wissen und KI-Kompetenz — praxisnahe Schulung gemäß EU AI Act Art. 4 stellen wir ein Glossar für die wichtigsten Begriffe aus dem Bereich AI/KI zur Verfügung. Es ist natürlich nicht vollständig, wenn Euch ein Begriff fehlt, meldet Euch gern.
Falls dich News von improuv zu den Themen KI/AI und weiteren spannenden Themen interessieren, willst du vielleicht den improuv-Newsletter abonnieren? Updates erreichen dich dann circa ein Mal im Monat.
Vielleicht interessiert dich auch der wöchentlich KI-Newsletter unseres Experten Sacha Storz? Du kannst ihn hier lesen und abonnieren: ainewskompakt.substack.com
Und schließlich möchten wir noch auf unsere Konferenz Agile World im Juli 2025 in München hinweisen, auf der wir einen der Schwerpunkte dieses Jahr auf das Thema Künstliche Intelligenz legen werden.
Activation function: Eine Funktion, die den Aktivierungsgrad eines Neurons in ein Ausgangssignal umwandelt.
AI Act: siehe EU AI Act.
AI Ethics: Prinzipien und Leitlinien, die sicherstellen sollen, dass KI-Systeme Menschen nicht schaden.
AI Safety: Forschungsfeld, das Strategien entwickelt, um die langfristigen Risiken leistungsfähiger KI zu minimieren.
AI agents / Autonome Agenten: Digitale Systeme, die eigenständig Entscheidungen treffen und Aufgaben ausführen, z. B. ein selbstfahrendes Auto.
Agentive: Systeme, die ohne ständiges menschliches Eingreifen eigenständig Ziele verfolgen.
Algorithmen: Schritt-für-Schritt-Anweisungen, mit denen Programme Daten verarbeiten und aus ihnen lernen können.
Allgemeine Zweck-KI (General-Purpose AI): Modelle oder Systeme, die für viele verschiedene Anwendungen einsetzbar sind.
Anbieter (Provider): Juristische oder natürliche Person, die ein KI-System entwickelt oder unter eigenem Namen in Verkehr bringt.
Alignment: Verfahren, um sicherzustellen, dass ein KI-System die gewünschten Ergebnisse produziert.
Amara’s law: Beobachtung, dass kurzfristige Technologie-Auswirkungen überschätzt und langfristige unterschätzt werden.
Anthropomorphismus: Zuschreibung menschlicher Eigenschaften an nicht-menschliche Objekte oder Systeme.
Artificial General Intelligence (AGI): Hypothetische KI, die Aufgaben aller Art auf oder über menschlichem Niveau lösen kann.
Artificial Intelligence (AI, KI): Technologien, die menschliche Intelligenzfunktionen wie Lernen und Problemlösen simulieren.
Artificial Narrow Intelligence (ANI): Heutige KI, die nur eng umrissene Aufgaben erledigen kann.
Auditing von KI-Systemen: Unabhängige Prüfung, ob ein KI-System technische, rechtliche und ethische Vorgaben erfüllt.
Backpropagation: Lernverfahren, bei dem Fehler rückwärts durchs Netzwerk propagiert werden, um Gewichte anzupassen.
Bayesian learning: Methode, bei der Wahrscheinlichkeiten kontinuierlich an neue Daten angepasst werden.
Benchmark: Standardisierter Test, um die Leistung von Modellen zu vergleichen.
Bias: Verzerrungen in Vorhersagen eines KI-Systems aufgrund voreingenommener Trainingsdaten.
Bias-Monitoring: Kontinuierliche Kontrolle von KI-Systemen auf diskriminierende Verzerrungen.
Binary classification problems: Aufgaben, bei denen Eingaben in genau zwei Klassen eingeteilt werden.
Binet-Simon scale: Frühes Intelligenzmessinstrument für Kinder.
Bodily-kinaesthetic intelligence: Fähigkeit, Körperbewegungen präzise zu steuern.
Broad AI: KI-Systeme, die mehrere verwandte Aufgaben bewältigen können.
Centaur approach: Zusammenarbeit von Mensch und KI, bei der KI unterstützt statt ersetzt.
Chatbot: Programm, das über Textnachrichten menschenähnlich kommuniziert.
ChatGPT: Von OpenAI entwickelter Chatbot auf Basis großer Sprachmodelle.
Chinese room experiment: Gedankenexperiment von John Searle, das fehlendes Maschinenverständnis illustriert.
Classification: Zuordnen von Datenpunkten zu vorgegebenen Kategorien.
Clustering: Unüberwachtes Gruppieren ähnlicher Datenpunkte.
Cognition: Verarbeitung, Speicherung und Nutzung sensorischer Informationen.
Complements: Zusätzliche Komponenten wie Daten und Infrastruktur, die KI erst nutzbar machen.
Complexity barrier: Vorstellung, dass hoher Systemkomplexität exponentielle Lösungsschwierigkeit folgt.
Convolutional neural network (CNN): Netzwerk, in dem Neuronen nur lokale Eingabebereiche verarbeiten.
Cybersecurity: Schutz von KI-Systemen vor Cyberangriffen und Manipulation.
Data: Bekannte oder angenommene Fakten als Grundlage für Entscheidungen.
Datenqualitätsanforderungen: Vorgaben an Genauigkeit, Relevanz und Vollständigkeit von Daten.
Data Augmentation: Erweiterung vorhandener Daten, um vielfältigere Trainingssätze zu erzeugen.
Decision-making: Auswahl einer Handlungsoption aus mehreren Alternativen.
Decision trees: Baumartige Modelle, die Daten mit if-then-Regeln aufteilen.
Deployer (Inverkehrbringer): Organisation oder Person, die ein KI-System in der Praxis einsetzt.
Deep Blue: IBM-Computer, der 1997 den Schachweltmeister besiegte.
Deepfake: KI-erzeugte, täuschend echte Bilder oder Videos.
DeepMind: Britisches KI-Unternehmen, bekannt für Fortschritte im Deep Learning.
Deep neural networks: Netzwerke mit mehreren verborgenen Schichten zur Merkmalsextraktion.
Deep learning: Methoden, die Modelle mit vielen Abstraktionsebenen trainieren.
Diffusion models: Modelle, die Bilderzeugung durch Rauschhinzu- und -entfernung simulieren.
Disruptive innovation: Technologie, die bestehende Märkte grundlegend verändert.
DSGVO: siehe GDPR.
Echtzeit-Fernbiometrische Identifizierung: Biometrische Erkennung von Personen in öffentlichen Räumen ohne Vorabregistrierung.
Emergent Behavior: Unerwartete Fähigkeiten von KI-Modellen, die nicht explizit trainiert wurden.
Emotional intelligence (EQ): Fähigkeit, eigene und fremde Emotionen zu erkennen und zu steuern.
Emotionserkennungssysteme: KI-Systeme, die aus Mimik oder Stimme Emotionen ableiten.
Encoder-decoder: Modelle, die Eingaben in latente Repräsentationen und zurück übersetzen.
End-to-end learning (E2E): Training eines Modells für eine Gesamtaufgabe ohne Zwischenschritte.
Error: Differenz zwischen Netzwerkausgaben und erwarteten Werten.
EU AI Act: EU-Regelwerk für KI-Systeme, dessen erster Teil 2024 in Kraft trat.
EU-KI-Datenbank: Öffentliche EU-Datenbank für registrierte Hochrisiko-KI-Systeme.
Evaluation: Messen der Modellleistung anhand von Testdaten und Metriken.
Expert system: Computersystem, das Expertenwissen mittels Regeln nutzt.
False positive: Falschmeldung, dass ein Kriterium erfüllt sei.
False negative: Falschmeldung, dass ein Kriterium nicht erfüllt sei.
Feature extraction: Umwandeln roher Daten in aussagekräftige Merkmale.
Fine-tuning: Anpassung eines vortrainierten Netzwerks an eine spezifische Aufgabe.
Forecasting: Vorhersage zukünftiger Entwicklungen auf Basis historischer Daten.
Forward propagation: Berechnung des Outputs eines Netzwerks von Input zu Output-Schicht.
Foundation models: Große vortrainierte Modelle als Basis für viele Anwendungen.
Frontier AI: Forschung an KI-Systemen an der Grenze des technisch Machbaren.
Fuzzy logic: Logik, bei der Wahrheitswerte stufenweise zwischen 0 und 1 liegen.
GDPR / DSGVO: EU-Datenschutzgrundverordnung zum Schutz personenbezogener Daten.
General-purpose technology: Technologie, die breite wirtschaftliche und gesellschaftliche Auswirkungen hat.
Generative AI: KI, die neue Texte, Bilder oder andere Inhalte erzeugt.
Generative adversarial networks (GANs): Zwei Netze – Generator und Diskriminator – die gegeneinander trainieren.
Generative pre-trained transformer (GPT) models: Transformer-Modelle, die auf riesigen Textmengen vortrainiert wurden.
Geringes Risiko KI (Minimal-Risk AI): KI-Systeme mit vernachlässigbarem Risiko und minimalen Pflichten.
Gewicht: Siehe Weight.
Graph neural network (GNN): Netzwerk, das direkt auf Graphen operiert.
Graphics processing unit (GPU): Hardwarebeschleuniger für rechenintensive Aufgaben.
Grundrechtsfolgenabschätzung: Bewertung der Auswirkungen eines KI-Systems auf Grundrechte.
Halluzination: Falsche oder unsinnige KI-Ausgaben, die plausibel erscheinen.
Hebbian learning rule: Regel, nach der gleichzeitig aktive Neuronen ihre Verbindung stärken.
Hidden layer: Zwischenschicht eines Netzwerks, die komplexe Merkmale lernt.
Hochrisiko-KI-Systeme (High-Risk AI Systems): Anwendungen, die strengen Anforderungen des EU AI Act unterliegen.
Human in the loop (HITL): Einbindung menschlicher Experten in Trainings- oder Entscheidungsprozesse.
Hype cycle: Kurve, die den Erwartungsverlauf neuer Technologien darstellt.
Image processing: Mathematische Transformation von Bildern ohne höhere Analyse.
Incremental innovation: Schrittweise Verbesserung bestehender Produkte oder Prozesse.
Inference: Anwendung eines trainierten Modells zur Generierung neuer Ausgaben.
Intelligence: Fähigkeit, Probleme zu lösen oder wertvolle Produkte zu schaffen.
Interpersonal intelligence: Fähigkeit, Emotionen und Motive anderer zu erkennen.
Intrapersonal intelligence: Fähigkeit, eigene Gefühle zu verstehen und zu nutzen.
K-means: Unüberwachter Algorithmus, der Daten in k Cluster aufteilt.
Kennzeichnungspflicht: Pflicht, KI-generierte Inhalte klar als solche zu markieren.
K-nearest neighbour (KNN): Klassifikationsalgorithmus basierend auf Nachbarähnlichkeiten.
Knowledge-based AI: KI-Ansatz, der explizites Regelwissen nutzt.
Konformitätsbewertung: Verfahren, das die Erfüllung aller Anforderungen des EU AI Act prüft.
Large language model (LLM): Auf riesigen Textcorpora trainiertes Sprachmodell.
Large multimodal model (LMM): Modell, das Text, Bild, Audio usw. integriert.
LASSO: Regularisierungsmethode, die Koeffizienten durch L1-Strafe verkleinert.
Learning: Prozess, bei dem ein Agent seine Leistung durch Erfahrung verbessert.
Linear regression: Modellierung linearer Beziehungen zwischen Variablen.
Linguistic intelligence: Fähigkeit, Sprache umfassend zu nutzen und zu verstehen.
Logical-mathematical intelligence: Fähigkeit, logische und numerische Muster zu erkennen.
Logistic function: S-förmige Funktion, die Werte in den Bereich 0-1 abbildet.
Logistic regression: Statistikverfahren für binäre Zielvariablen.
Long short-term memory (LSTM): Rekurrentes Netzwerk, das lange Abhängigkeiten erlernt.
Machine Learning (ML): Teilgebiet der KI, das Algorithmen entwickelt, die aus Daten lernen.
Machine learning operations (MLOps): Praktiken zum Betrieb und zur Wartung von KI-Modellen.
Menschliche Aufsichtspflicht: Erfordernis, dass qualifizierte Personen KI-Systeme überwachen.
Mixture of Experts (MoE): Architektur, bei der spezialisierte Modelle Aufgaben aufteilen.
Multiagent: Systeme mit mehreren interagierenden Agenten.
Multilayer perceptron (MLP): Feedforward-Netzwerk mit mehreren Schichten.
Multimodale AI: KI, die verschiedene Datenmodalitäten gemeinsam verarbeitet.
Multiple intelligences theory: Theorie unabhängiger Intelligenzformen.
Musical intelligence: Fähigkeit, musikalische Elemente zu verstehen und zu gestalten.
MYCIN: Frühes Expertensystem zur Diagnose von Blutinfektionen.
Naïve Bayes model: Probabilistisches Modell mit Annahme bedingter Unabhängigkeit.
NAFTA: Akronym für Needs, Alignment, Finance, Test, Analyse in KI-Business-Cases.
Natural language processing (NLP): KI-Verfahren zum Verstehen menschlicher Sprache.
Neural radiance field (NeRF): Netzwerk, das aus 2D-Fotos 3D-Szenen rekonstruiert.
Neural networks: Modelle, die vom Gehirn inspirierte Neuronenstrukturen nutzen.
Neuron: Grundeinheit künstlicher neuronaler Netzwerke.
Non-linear regression: Modellierung nichtlinearer Beziehungen.
NP-complete: Probleme, die schwer lösbar, aber leicht verifizierbar sind.
NP-hard: Probleme, die mindestens so schwer wie NP-complete sind.
Oja’s learning rule: Hebb-Variante, die Gewichte normiert hält.
Output: Ergebnis, das ein Netzwerk nach Verarbeitung seines Inputs liefert.
Overfitting: Zu starke Anpassung an Trainingsdaten mit schlechter Generalisierung.
Parametric updating: Dynamisches Anpassen kritischer Modellparameter.
Perceptron: Einfacher Algorithmus zur binären Klassifikation.
Pervasive technology: Allgegenwärtige Technologie, die in Alltagsgeräte integriert ist.
Pixel: Kleinste Bildeinheit digitaler Darstellungen.
P-problem: Probleme, die in polynomieller Zeit lösbar und prüfbar sind.
Prediction: Vorhersage zukünftiger Ereignisse anhand von Daten.
Predictive policing: Datenbasierte Vorhersage potenzieller Verbrechensschauplätze.
Perplexity: KI-Chatbot und Suchmaschine, die LLMs und aktuelle Webdaten nutzt.
Prompt engineering: Kunst, Eingaben so zu formulieren, dass gewünschte KI-Ausgaben entstehen.
Prompt: Eingabeaufforderung an ein KI-System.
Prompt Chaining: Technik, bei der KI-Systeme frühere Antworten für spätere nutzen.
Q-learning: Reinforcement-Learning-Verfahren, das Q-Werte für Aktionen erlernt.
Quantisierung: Reduktion der numerischen Präzision von Modellparametern.
Random decision forests: Ensemble vieler Decision Trees für robuste Vorhersagen.
Reasoning: Logisches Schließen zur Entscheidungs- oder Vorhersagefindung.
Recommendation engines: Systeme, die relevante Produkte oder Inhalte vorschlagen.
Recurrent neural network (RNN): Netzwerk mit Schleifen zur Modellierung von Sequenzen.
Recursive neural network: Netzwerk, das hierarchische Strukturen wie Bäume verarbeitet.
Regression: Statistische Methode zur Modellierung von Zusammenhängen.
Regularisation: Techniken gegen Überanpassung, z. B. Bestrafung großer Koeffizienten.
Reinforcement learning: Lernparadigma, bei dem Agenten durch Belohnungen lernen.
Reinforcement Learning from AI Feedback (RLAIF): Optimierung durch Feedback anderer KI-Modelle.
Reinforcement Learning from Human Feedback (RLHF): Training mit menschlichem Feedback.
Replication: Problem der mangelnden Reproduzierbarkeit von KI-Entscheidungen.
Retrieval-Augmented Generation (RAG): Kombination von LLMs mit Informationsabruf.
Ridge regression: Lineare Regression mit L2-Regularisierung.
Right to explanation: GDPR-Recht auf verständliche Erklärung automatisierter Entscheidungen.
Robo-advisor: Algorithmusbasierte Online-Finanzberatung.
Robotics: Technik zur Entwicklung programmierbarer Maschinen.
Robustheit und Genauigkeit: Anforderungen an zuverlässige und präzise KI-Systeme.
Sampling: Schlussfolgerung über eine Population anhand einer Stichprobe.
Schatten-IT: Nutzung nicht autorisierter IT-Systeme außerhalb der Kontrolle der IT-Abteilung.
Semi-supervised learning: Lernen mit gelabelten und ungelabelten Daten.
SHRDLU: Frühes KI-System, das Objekte in einer virtuellen Welt manipulierte.
Singularity: Hypothese einer KI, die menschliche Intelligenz übertrifft und sich selbst verbessert.
Sigmoid function: Siehe Logistic function.
Small language model (SLM): Kompaktes Sprachmodell für spezifische Aufgaben.
Small multimodal models (SMM): Kompakte Modelle, die mehrere Datentypen integrieren.
Spatial intelligence: Fähigkeit, räumliche Beziehungen präzise wahrzunehmen.
Speech recognition: Automatisches Erkennen gesprochener Sprache.
STANLEY: Erstes autonomes Fahrzeug, das die DARPA-Challenge gewann.
Strong AI hypothesis: Annahme, dass Maschinen wirklich denken können.
Structured data: Daten in festem, relationalem Format.
Supervised learning: Lernen mit gelabelten Beispielen.
Support vector machine: Algorithmus, der Daten in hohem Raum trennt.
Stochastic Parrot: Metapher für LLMs, die ohne echtes Verständnis Texte imitieren.
Style Transfer: Übertragung eines Bildstils auf andere Inhalte durch KI.
Temperatur: Parameter, der die Zufälligkeit von Modellausgaben steuert.
Text-to-Image Generation: KI-Erstellung von Bildern aus Textbeschreibungen.
Tokens: Kleine Einheiten, in die Text für Modelle zerlegt wird.
Training Data: Datensätze, mit denen KI-Modelle trainiert werden.
Transformer Model: Netzwerkarchitektur mit Attention-Mechanismus.
Transparenzpflichten: Verpflichtung, Funktionsweise und Grenzen eines KI-Systems offenzulegen.
Tokenisation: Zerlegung von Text in Tokens.
Training error: Fehler während des Modelltrainings.
Training set: Gelabelter Datensatz für das Training.
Transformers: Netzwerke mit Attention, die Kontext in Sequenzen erfassen.
Travelling salesman problem: Optimierungsproblem der kürzesten Rundreise.
Turing Test: Test, ob eine Maschine menschliches Verhalten nachahmen kann.
Underfitting: Modell bildet weder Trainings- noch Testdaten gut ab.
Unstructured data: Daten ohne festes Schema, z. B. Texte oder Bilder.
Unsupervised learning: Lernen ohne gelabelte Daten.
Variational autoencoders (VAE): Probabilistische generative Modelle mit Encoder und Decoder.
Variable: Größe, die in Experimenten variieren kann.
Vector database: Datenbank, die Informationen als Vektoren speichert.
Vector embedding: Numerische Darstellung von Daten in kontinuierlichem Raum.
Video processing: Analyse und Transformation von Videodaten.
Verbotene KI-Praktiken (Unacceptable-Risk AI): KI-Anwendungen, die aufgrund unvertretbarer Risiken untersagt sind.
Vertrauenswürdige KI: KI-Systeme, die ethische, rechtliche und technische Anforderungen erfüllen.
Visionary (Microsoft Bing): Suchmaschine, die KI-Techniken für kontextbezogene Ergebnisse nutzt.
Watson: Von IBM entwickeltes KI-System, bekannt aus der Show „Jeopardy!“.
Weak AI, narrow AI: KI, die nur spezifische Aufgaben löst.
Weight: Numerischer Wert, der die Stärke einer Verbindung in Netzwerken bestimmt.
Zero-Shot: Aufgabe, die ein Modell ohne spezielles Training löst.
Zertifizierungsverfahren: Formaler Prozess, der die Konformität eines KI-Systems bestätigt.
Als Senior Agile Coach mit langjähriger Erfahrung in der Begleitung von Teams zur mehr Effektivität und Innovation hat Sacha Storz ein tiefes Verständnis für das transformative Potenzial der Künstlichen Intelligenz. Durch vielfältige Weiterbildungen und intensive Zertifizierungskurse im Bereich Künstliche Intelligenz von renommierten Institutionen wie unter anderem der Stanford University, der University of Pennsylvania oder IBM bringt er das nötige Know-how mit, um den Teilnehmer:innen zu vermitteln, wie sie KI gezielt einsetzen können, um ihre tägliche Arbeit effektiver zu gestalten.
Nadine Bleck ist Account Managerin und gibt gerne Antworten auf alle weiteren Fragen rund um unsere Trainings.
Artikel wurde in den Warenkorb gelegt.