Gut gemeint – schlecht gemacht

Axst/ Oktober 3, 2020/ alle Beiträge, Datenschutz an Schulen/ 1 comments

Schüler sollen im Unterricht aufpassen, auch in China. Und wenn sie gelangweilt sind, dann erkennt das eine Software, wie sie in China eingesetzt wird, und informiert den/die Lehrer:in. ( https://www.heise.de/hintergrund/Bildung-Mehr-Input-3937489.html ). Damit wird ein mehr oder weniger bewusstes Lernziel erfüllt: Kinder frühzeitig an Überwachungsmethoden zu gewöhnen. Diese Anwendung wurde übrigens auch vom DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) mit entwickelt.

Die immer weiter um sich greifenden IT-basierten Überwachungsstrategien in den Schulen wurde nun (September 2020) in einem weiteren Beitrag auf der Website von Heise.de aufgegriffen. (https://www.heise.de/hintergrund/Kinder-brauchen-Schutz-vor-KI-Einfluss-4909930.html). Ein lesenswerter Beitrag, der über ethische Richtlinien der Unicef bei der Verwendung von Neuronalen Netzen gegenüber Kindern berichtet. Kurioserweise hat die Pekinger Akademie für künstliche Intelligenz (BAAI) einen ähnlichen Vorschlag erarbeitet, der in verblüffender Weise in deutlichem Gegensatz zur realen Praxis in China steht.

Leider aber ist der Beginn und der Titel dieses Artikels ein weiteres Beispiel, wie Begriffe verallgemeinernd und damit falsch verwendet werden. Das wäre nicht so schlimm, würde nicht auf diese Weise der kritischen Bildung in der Digitalen Welt ein Bärendienst erwiesen.

Im Titel „Kinder brauchen Schutz vor KI-Einfluss“ steckt ein fataler Fehler: Womit wir alle, nicht nur Kinder, zur Zeit konfrontiert sind, sind sogenannte Neuronale Netze des Machine-Learning. Dies ist nur ein Teil von Künstlicher Intelligenz. Und zwar der Teil, der in der Lage ist, aus vorliegenden Daten Strukturen zu erkennen. Das birgt zwar jede Menge Gefahren für die gesellschaftliche Entwicklung, ist aber technisch gesprochen nichts anderes als hoch gezüchtete und effiziente Statistik mit nachfolgenden Entscheidungsregeln. Der andere Zweig der KI-Forschung, die sogenannte starke KI, versucht eine Maschine mit eigenem Bewusstsein und Willen zu entwickeln. Ein sicherlich unter ethischen Aspekten fragwürdiger Versuch. Diese beiden Aspekte werden häufig vermengt, lösen diffuse Ängste aus und verhindern auf diese Weise die intensive und kritische Auseinandersetzung mit Machine-Learning.

Im Teaser der Artikels wird ein weiterer emotional aufgeladener Begriff, der Algorithmus, verwendet. Dabei ist ein Algorithmus nichts anderes als die Abarbeitung von Arbeitsschritten zur Erreichung eines Ziels.Wenn ich Spaghetti koche, folge ich einem Algorithmus. Algorithmen begegnen uns in jeder Lebenssituation: Ampelschaltungen, Kochrezepte, Nutzung von E-Mails. Allgemein von „den Algorithmen“ zu sprechen vernebelt den Blick auf die Gefahren, die durch die besondere Form der überwachenden oder spionierenden Algorithmen ausgehen.

Der Prozess der Digitalisierung ist bis auf wenige Bereiche abgeschlossen, unsere Gesellschaft befindet sich im Status der Digitalität. Wir bewegen uns, ob wir wollen oder nicht, in einer von digitalen Produkten strukturierten Umwelt. Um sich darin zu orientieren und Autonomie zu wahren, hilft Wissen um die Wirkungsweise und Struktur dieser Produkte weiter. (https://netzpolitik.org/2016/rezension-kultur-der-digitalitaet-von-felix-stalder/#vorschaltbanner)

Daher ist es naiv und gefährlich in einer verallgemeinernder, diffuse Ängste schürenden Weise von „den Algorithmen“ oder „der KI“ zu sprechen. Diese Anwendungen fallen nicht vom Himmel, sie sind Produkte aus der Softwareindustrie, von Ingenieuren erstellt und unter Maßgabe von Firmenleitungen oder staatlichen Stellen entwickelt. Es kommt darauf an, kühlen Kopf zu bewahren und konkret zu sagen, wer entwickelt welche Systeme zu welchem Zweck.

Eine Voraussetzung dafür ist die Möglichkeit, entsprechendes Wissen über die angewandte Software zu erlangen. Jede Software, die mit persönlichen Daten von Menschen arbeitet, sollte einer Prüfung zugänglich sein. Insbesondere Software, die mit staatlicher Unterstützung erstellt wird, wie z.B. das eingangs erwähnte, vom DFKI mit entwickelte Überwachungsprogramm in Schulklassen, muss offen gelegt werden. Hier gilt der Grundsatz „Public Money – Public Code“.

Und wenn man einen kühlen Kopf bewahrt, dann fallen Entscheidungen zum Einsatz von Software nicht mehr so schwer. Zwei Beispiele aus dem Bildungsbereich:

In Baden-Württemberg will Kultusministerin Eisenmann mit allen Mitteln durchsetzen, dass Microsoft Produkte in den Schulen genutzt werden. Durchgängig wird aber von Datenschützern der Einsatz von Microsoft-Produkten in Behörden wegen großer Unsicherheit abgelehnt: https://www.heise.de/news/Datenschuetzer-sehen-Microsoft-365-in-Behoerden-als-nicht-rechtskonform-an-4893604.html

Gründe gegen die Nutzung von Microsoft-Produkten sind vor allem die Abhängigkeit von einer Firma, die fehlende Rechtsgrundlage nach Zusammenbruch des privacy-shield-Abkommens, die Unvereinbarkeit mit der DSGVO und die undurchsichtigen Datenflüsse und Auswertungen durch Microsoft. (https://www.kuketz-blog.de/bildungswesen-entlarvung-der-haeufigsten-microsoft-mythen/ )

Anwendungen auf der Basis von Machine-Learning können andererseits auch in der Schule oder für Lernende in räumlicher Entfernung nützlich sein. So gibt es z.B. Lernumgebungen im Fremdsprachenunterricht, die den Schüler:innen oder Student:innen je nach Lernfortschritt individuelle Aufgaben stellen und auch mit Spracherkennung Rückmeldungen geben können. Solange sicher gestellt ist, dass die persönlichen Daten nicht erfasst oder weiter verwendet werden, kann dies ein Hilfsmittel für die Schüler:innen gerade im Distance-Learning sein. Zentral bei der Verwendung solcher Hilfsmittel ist zwingend die Einbeziehung von Lehrenden, Schüler:innen und Eltern sowie die Offenlegung des Programmcodes und der verwendeten Datenstruktur.

Bei allen Überlegungen zum Einsatz von digitalen Hilfsmitteln sind technische Grundlagen offen zu legen, der Zweck der eingesetzten Mittel demokratisch zu legitimieren und alle Betroffenen müssen einbezogen werden.

1 Comment

Leave a Comment

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*