Kurzübersicht
Dauer: ab 5 Stunden
Inhalte: Stochastik (Wahrscheinlichkeitsbegriff), Markov Ketten n-ter Ordung (Übergangsgraphen und -tabellen), gewichteter Mittelwert, Logarithmusfunktion, Optimierung, grundlegende Strategien des maschinellen Lernens
Vorwissen: relative und absolute Häufigkeit, Wahrscheinlichkeitsbegriff
Zielgruppe: Mathematikkurse oder Informatikkurse ab der 10. Klasse
Erstellt von: Stephanie Hofmann
Anmeldung: Termine können individuell über dieses Formular vereinbart werden.
Künstliche Intelligenzen (KI) sind längst als Alexa und Siri oder beim autonomen Autofahren involviert und auch beim täglichen Chatten mit Freund/innen unterstützt uns eine KI: Wir bekommen Wörter vorgeschlagen und sparen damit nicht nur wertvolle Zeit, sondern machen auch weniger Fehler beim Schreiben. Doch woher weiß das Handy, was ich als nächstes Schreiben möchte? Wie können solche Wortvorschläge möglichst so generiert werden, dass sie mit hoher Wahrscheinlichkeit das von dem / der Nutzer:in gewünschte Wort liefern? Wie gut funktionieren solche Wortvorschläge? Kann man am Ende mit Hilfe solcher Vorhersagemodelle die Sprache des Nutzers oder der Nutzerin so gut imitieren, dass niemand mehr merkt, dass der Text von einer KI anstatt von einem echten Menschen erzeugt wird?
In diesem Workshop erstellen die Schüler:innen selbst ein Vorhersagemodell, verbessern dieses und testen es aus. Dabei wird die praktische Relevanz der Mathematik im Alltag erkennbar und die Schüler:innen erleben einen ganz neuen handlungsorientierten computergestützten Zugang zur Mathematik.
Bildequelle: https://unsplash.com/photos/ik_AuIWeBBM
Vorwissen
Folgende mathematische Inhalte werden als Vorkenntnisse für die Bearbeitung des Lernmaterials benötigt:
- relative und absolute Häufigkeit
- Wahrscheinlichkeitsbegriff
- mehrstufige Zufallsexperimente, Anwendung der Pfadregel
- natürlicher Logarithmus einer Zahl, Logarithmusgesetze (können bei Bedarf problemorientiert eingeführt werden)
- Mittelwert
Alle weiteren mathematischen Inhalte werden im Lernmaterial problemorientiert eingeführt.
Stundenverlaufsplan
Phase |
Inhalt |
Schulbezug |
weitere math. Inhalte |
Medien/ Materialien |
Zeit (Min.) |
Einstieg + Technik-einführung |
Motivation für ein Wortvorhersagemodell, Einführung in das maschinelle Lernen, Vereinfachung und Übersetzung der Problemstellung in ein math. Modell |
Absolute Häufigkeiten |
- |
Präsentationsfolien |
15
10 |
Erarbeitung AB1 |
Erarbeitung des Bi-Gramm-Modells, Anwenden des Bi-Gramm-Modells |
Relative und absolute Häufigkeiten, bedingte Wahrscheinlichkeit |
Übergangswahrscheinlichkeit, Übergangsgraph, Übergangstabelle, Bi-Gramm-Modell |
AB1-SuS |
60 |
Sicherung 1 |
Wiederholung des Bi-Gramm-Modells, Probleme des Bi-Gramm-Modells sammeln und Lösungen diskutieren |
Bedingte Wahrscheinlichkeit |
Übergangswahrscheinlichkeit, Übergangsgraph, Übergangstabelle, Bi-Gramm-Modell |
Präsentationsfolien |
15 |
Erarbeitung AB2 |
Erarbeitung des Tri-Gramm-Modells, Kennenlernen des Uni-Gramm-Modells, Vergleich der N-Gramm-Modelle |
Relative und absolute Häufigkeiten, Bedingte Wahrscheinlichkeit |
Übergangswahrscheinlichkeit, Übergangsgraph, Übergangstabelle, Uni-Gramm-Modell, Tri-Gramm-Modell |
AB2-SuS |
30 |
Sicherung 2 |
Übersicht über N-Gramm-Modelle, Diskussion von Vor- und Nachteilen der N-Gramm-Modelle, Diskussion von Ideen für die Kombination der N-Gramm-Modelle |
Bedingte Wahrscheinlichkeit |
Auswirkungen niedriger Zählhäufigkeiten auf die Güte der relativen Häufigkeit als Schätzer, Eigenschaften von N-Gramm-Modellen |
Präsentationsfolien |
10 |
Erarbeitung AB3 |
Kombination der N-Gramm-Modelle |
|
gewichteter Mittelwert |
AB3-SuS |
30 |
Sicherung 3 |
Anforderungen an die Gewichte diskutieren, Sammlung von Ideen zur Bewertung von Wortvorhersagemodellen, Einführung der Kreuzentropie |
Wahrscheinlichkeit, Natürliche Logarithmusfunktion (wird bei Bedarf problemorientiert eingeführt) |
Kreuzentropie, Strategie des maschinellen Lernens: Teilung in Trainings- und Testdaten |
Präsentationsfolien |
20 |
Erarbeitung AB4 |
Berechnung und Interpretation der Modell-wahrscheinlichkeit, Ergänzung einer Glättungs-wahrscheinlichkeit, Berechnung der Kreuzentropie, Vergleich unterschiedlicher Modelle mit Hilfe der Kreuzentropie |
Natürliche Logarithmusfunktion, Logarithmusgesetze (wird bei Bedarf problemorientiert eingeführt), mehrstufige Zufallsexperimente, Anwendung der Pfadregel |
Modellwahrscheinlichkeit, Kreuzentropie, Glättung |
AB4-SuS |
70 |
Sicherung 4 |
Interpretation der Ergebnisse der Kreuzentropie, Nutzung der Kreuzentropie für die Bestimmung der optimalen Gewichte |
- |
Modellwahrscheinlichkeit, Kreuzentropie, Glättung |
Präsentationsfolien |
10 |
Erarbeitung AB5 |
Formulierung eines Optimierungsproblems zur Bestimmung der optimalen Gewichte mit Hilfe der Kreuzentropie |
- |
Anwendung eines Optimierungsverfahrens, Aufstellen von Zielfunktion und Nebenbedingungen |
AB5-SuS |
20 |
oder Erarbeitung AB5 open |
Erarbeitung eines Optimierungsverfahrens zur Bestimmung der Kreuzentropie
|
- |
Aufstellen von Zielfunktion und Nebenbedingungen, Erarbeitung eines Optimierungsverfahrens |
AB5open-SuS |
45 |
Sicherung 5 + Abschluss-diskussion + Evaluation |
Vorstellung der Optimierungsverfahren (nur bei AB open), Interpretation der Ergebnisse des Optimierungs-verfahrens, gesellschaftskritische Diskussion der Nutzung von Assistenzsystemen insbesondere der Wortvorschläge |
Kritische Reflektion |
- |
Präsentationsfolien |
5-15
10
5 |
Zusatzmaterial |
|||||
Erarbeitung Z1 (verlinkt auf AB2) |
Erarbeitung des Uni-Gramm-Modells |
Relative und absolute Häufigkeiten |
- |
Z1-SuS |
|
Erarbeitung Z2, Z2.1, Z2.2 (verlinkt auf AB3) |
Erarbeitung der Rückfallstrategie |
- |
Fallunterscheidung |
Z2-SuS, Z2.2-SuS, Z2.2-SuS |
|
Erarbeitung Z3 (verlinkt auf AB4) |
Auswirkung der Trainingsdaten auf das Modell |
Verständnis von Daten |
Verständnis von Trainingsdaten |
Z3-SuS |
|
Erarbeitung AB_open (verlinkt auf AB5) |
Nutzung der Wortvorschläge zur Textgenerierung |
Mehrstufige Zufallsexperimente |
- |
AB_open-SuS |
|
Literatur
- Hofmann, S. & Frank, M. (in Druck): Maschinelles Lernen im Schulunterricht am Beispiel einer problemorientierten Lerneinheit zur Wortvorhersage, GDM, Frankfurt.
- Hofmann, S. & Frank, M. (2022). Teaching data science in school: Digital learning material on predictive text systems. In G. Bolondi & J. Hodgen (Eds.), ''Proceedings of the Twelfth Congress of the European Society for Research in Mathematics Education''.