8. Künstliche Intelligenz: Einführung#
Die Künstliche Intelligenz ist ein weites Feld, das man aus verschiedenen Perspektiven betrachten kann.
Fürs Abitur am TG Informationstechnik sind im Augenblick nur die folgenden Themen relevant - und in diesem Skript werden deshalb auch nur sie ausführlich behandelt. In unserem Moodle-Kurs findest du weitere Materialien, insb. zu den gesellschaflichen Auswirkungen von KI und dazu, wie du selbst KI nutzen kannst, sollst, darfst (und an manchen Stellen auch besser nicht nutzen sollst oder darfst) .
8.1. KI-Themen, die fürs Abitur in Informationstechnik relevant sind#
Der k-Nächste-Nachbarn-Algorithmus
k-Means-Clustering
Entscheidungsbaumlernen
Der Minimax-Algorithmus für Zwei-Personen-Spiele
Neuronale Netze
8.2. Wichtige Begriffe#
Die KI ist voller Fachbegriffe. Hier kannst du nachschlagen, wenn du auf einen Begriff stößt, den du nicht kennst.
- Aktivierungsfunktion (nicht klausurrelevant)
Eine mathematische Funktion, die die Ausgabe eines künstlichen Neurons transformiert. Sie entscheidet, ob ein Neuron “aktiviert” wird. Beispiele: Sigmoid, ReLU, Heaviside. (s. Neuronales Netz, Perzeptron)
- Backpropagation (nicht klausurrelevant)
Eine Methode, die es einem Neuronalen Netz ermöglicht, Fehler zu korrigieren, indem es sie rückwärts durch die Schichten sendet. Das Modell passt so seine Gewichte an, um bessere Vorhersagen zu treffen. (s. Gradientenabstieg, Trainingsdaten)
- Bestärkendes Lernen (nicht klausurrelevant)
siehe Verstärkendes Lernen.
- Datenpunkt
Eine einzelne Beobachtung in einem Datensatz, bestehend aus Features und ggf. einem Label. Beispiel: Ein Datenpunkt könnte das Alter und Gewicht einer Person enthalten.
- Distanzmaße
Metriken zur Messung der Ähnlichkeit oder Unterschiedlichkeit zwischen Datenpunkten. Beispiele: Euklidische Distanz, Manhattan-Distanz.
- Eifriger Lerner
Ein Ansatz, bei dem das Modell vollständig trainiert wird, bevor es Vorhersagen trifft. Beispiele: Entscheidungsbaumlernen, Neuronales Netz. (s. Fauler Lerner)
- Entscheidungsbaum
Eine hierarchische Struktur, die Entscheidungen durch Regeln modelliert, z. B. “Ist das Alter > 18?”. Jeder Knoten repräsentiert eine Regel, die die Daten aufteilt. (s. Entscheidungsbaumlernen, Gini-Unreinheit)
- Entscheidungsbaumlernen
Ein Algorithmus, der einen Entscheidungsbaum erstellt, indem er die Daten basierend auf Kriterien wie der Gini-Unreinheit aufteilt.
- Epoche (nicht klausurrelevant)
Eine vollständige Iteration durch den gesamten Trainingsdatensatz während des Trainings eines Modells.
- Euklidische Distanz
Eine Distanzmetrik, welche die direkte Strecke (Luftlinie) zwischen zwei Punkten misst. Sie wird berechnet, indem man die Differenzen der Koordinaten quadriert, addiert und daraus die Wurzel zieht. Beispiel: Die Euklidische Distanz zwischen den Punkten (1, 2) und (4, 6) beträgt \(\sqrt{(1-4)^2 + (2-6)^2} = \sqrt{9 + 16} = 5\).
- Fauler Lerner
Ein Ansatz, bei dem das Modell erst zur Laufzeit (also bei einer Anfrage) trainiert wird, anstatt vorher. Beispiele: K-Nächste-Nachbarn-Algorithmus. (s. Eifriger Lerner)
- Feature
(s. Merkmal)
- Gelabelte vs ungelabelte Daten
Gelabelte Daten enthalten sowohl Eingabewerte (Features) als auch die zugehörigen Zielwerte (Labels). Sie werden für überwachtes Lernen verwendet. Beispiel: Bilder von Tieren mit der Angabe “Hund” oder “Katze”.
Ungelabelte Daten enthalten nur Eingabewerte ohne Zielwerte. Sie werden für unüberwachtes Lernen verwendet, um Muster oder Strukturen zu erkennen. Beispiel: Kundenkaufdaten ohne vordefinierte Kategorien. (s. Überwachtes Lernen, Unüberwachtes Lernen)- Gini-Unreinheit
Ein Maß für die Reinheit eines Knotens in einem Entscheidungsbaum. Ein Wert von 0 bedeutet, dass alle Daten zur gleichen Kategorie gehören.
- Gradientenabstieg (nicht klausurrelevant)
Ein Algorithmus, der Schritt für Schritt die Fehler eines Modells reduziert, indem er die Parameter so anpasst, dass die Fehlerfunktion kleiner wird. (s. Backpropagation, Lernrate)
- k-Means Clustering
Ein Algorithmus, der Datenpunkte in \(k\) Gruppen (Cluster) aufteilt, indem er iterativ ihre Ähnlichkeit optimiert.
- k-Nächste-Nachbarn-Algorithmus
Ein Algorithmus, der Vorhersagen basierend auf den \(k\) ähnlichsten Datenpunkten trifft. Beispiel: Die 3 nächsten Nachbarn eines Punktes bestimmen, ob er eher “Katze” oder “Hund” ist. (s. Distanzmaße)
- Klassifikation
Eine Form des überwachten Lernens, bei der ein Modell Eingabedaten einer oder mehreren Kategorien zuordnet. Beispiel: Ein Modell klassifiziert E-Mails als “Spam” oder “Nicht-Spam”. (s. Regression)
- Label
Die bekannte Zielgröße oder Kategorie eines Datenpunkts, z. B. “Spam” oder “Nicht-Spam”. (s. Gelabelte vs ungelabelte Daten)
- Lerner vs Löser
Lerner sind Algorithmen, die ein Modell aus Daten erstellen, z. B. Neuronale Netze oder Entscheidungsbaumlernen. Löser arbeiten direkt auf einer Problemstruktur, z. B. der Minimax-Algorithmus.
- Lernrate (nicht klausurrelevant)
Ein Hyperparameter, der bestimmt, wie groß die Schritte beim Gradientenabstieg sind. Eine zu hohe Lernrate kann das Lernen instabil machen, eine zu niedrige führt zu langsamen Fortschritten.
- Manhattan-Distanz
Eine Distanzmetrik, die die Summe der absoluten Differenzen zwischen den Koordinaten zweier Punkte berechnet. Beispiel: Die Manhattan-Distanz zwischen den Punkten (1, 2) und (4, 6) beträgt \(|1-4| + |2-6| = 7\).
- Merkmal
Merkmale (engl. features) beschreiben die Eigenschaften eines Datenpunkts. Beispiel: In einem Datensatz über Personen könnten Merkmale wie Alter oder Körpergröße enthalten sein.
- Minimax-Algorithmus
Ein Entscheidungsalgorithmus, der in Spielen wie Schach verwendet wird, um optimale Züge zu finden. Beispiel: Der Algorithmus berechnet den besten Zug, indem er den schlechtesten Zug des Gegners minimiert. (s. Entscheidungsbaum)
- Neuron (nicht klausurrelevant)
Die grundlegende Recheneinheit in einem Neuronalen Netz. Es nimmt Eingaben entgegen, verarbeitet sie mit einer Aktivierungsfunktion und gibt eine Ausgabe weiter. (s. Perzeptron)
- Neuronales Netz (nicht klausurrelevant)
Ein Modell, das aus mehreren Schichten künstlicher Neuronen besteht. Es lernt komplexe Muster, indem es die Verbindungen zwischen den Neuronen anpasst. (s. Backpropagation)
- Overfitting
Die Situation, wenn ein Modell die Trainingsdaten zu genau lernt und dadurch schlecht auf neue Daten generalisiert. Beispiel: Ein Modell, das jeden Datenpunkt “auswendig” gelernt hat. (s. Underfitting, Regularisierung)
- Perzeptron (nicht klausurrelevant)
Das einfachste Modell eines künstlichen Neurons. Es trifft Entscheidungen basierend auf einer linearen Entscheidungsregel. Beispiel: Ein Perzeptron entscheidet, ob ein Punkt links oder rechts einer Linie liegt. (s. Neuronales Netz)
- Regularisierung (nicht klausurrelevant)
Eine Methode, um zu verhindern, dass ein Modell Overfitting betreibt. Bei der Regularisierung wird das Modell dafür bestraft, wenn seine Parameter zu groß oder zu komplex werden. Dadurch wird das Modell “einfacher” gehalten. (s. Overfitting, Underfitting)
- Regression (nicht klausurrelevant)
Eine Form des überwachten Lernens, bei der ein Modell kontinuierliche Werte vorhersagt, z. B. den Preis eines Hauses. (s. Klassifikation)
- Softmax-Funktion (nicht klausurrelevant)
Eine Methode, um die Ausgaben mehrerer Neuronen in Wahrscheinlichkeiten umzuwandeln, sodass ihre Summe genau 1 ergibt. Große Ausgabewerte werden stärker gewichtet, kleinere weniger. Beispiel: Ein Modell gibt aus, dass es zu 80 % “Katze” und zu 20 % “Hund” ist. (s. Klassifikation)
- Testdaten
Daten, die verwendet werden, um die Leistung eines Modells zu überprüfen. Beispiel: Neue Daten, die das Modell vorher nicht gesehen hat. (s. Trainingsdaten)
- Trainingsdaten
Daten, die verwendet werden, um ein Modell zu trainieren. Beispiel: Ein Datensatz mit Bildern von Katzen und Hunden, den das Modell verwendet, um sie zu unterscheiden. (s. Testdaten)
- Überwachtes Lernen
Eine Lernmethode, bei der das Modell mit gelabelten Daten trainiert wird. Beispiel: Ein Modell lernt, Spam von Nicht-Spam zu unterscheiden. (s. Gelabelte vs ungelabelte Daten)
- Unüberwachtes Lernen
Eine Methode, bei der ein Modell mit ungelabelten Daten trainiert wird, um Muster oder Strukturen zu erkennen. Beispiel: Gruppieren von Kunden nach ihren Kaufgewohnheiten. (s. Gelabelte vs ungelabelte Daten)
- Underfitting
Die Situation, wenn ein Modell zu einfach ist und die zugrunde liegenden Muster in den Trainingsdaten nicht erfasst. Beispiel: Ein Modell, das eine komplexe Beziehung als gerade Linie darstellt. (s. Overfitting)
- Verstärkendes Lernen (nicht klausurrelevant)
Eine Methode, bei der ein Agent durch Belohnungen und Bestrafungen lernt, sein Verhalten zu optimieren. Beispiel: Ein Roboter lernt, einen Hindernisparcours zu meistern. (s. Bestärkendes Lernen)
- Zielmerkmal
Dasjenige Merkmal, das vorhergesagt werden soll. Beispiel: In einer Bilderdatenbank könnte das Zielmerkmal die Kategorie des Bildes sein, z. B. “Katze” oder “Hund”. (s. Merkmal)