Wenn die KI die Hausaufgaben macht

OGA vom 18. Oktober 2023 BRANDENBURG

Wirbel um Zensuren für KI-Hausaufgaben

Schule Kinder und Jugendliche greifen zu Künstlicher Intelligenz, produzieren Vorträge per Knopfdruck. Lehrer geben mal eine 1, mal eine 6 wegen Täuschung. Dabei gibt es klare Regeln für die Nutzung von ChatGPT.

Von Mathias Hausding

Sechste Klasse an einer Grundschule in Brandenburg: Im Fach Musik sollen zu Hause Vorträge über Pop-Stars erarbeitet und dann in der Schule präsentiert werden. Ein Schüler wählt Apache 207, macht seine Sache gut und erhält eine 1. Dann erzählt er in Gegenwart des Lehrers, dass er sich den Vortrag von der App ChatGPT hat schreiben lassen. Der Pädagoge geht nicht weiter darauf ein, die 1 bleibt. Andere Kinder werden stutzig: Sollten sie sich für ihr Referat trotzdem Mühe geben oder auch die Abkürzung nehmen?

Ganz anders der Fall an einem märkischen Gymnasium: Eine Zwölftklässlerin, für die es in dem Schuljahr auf jede Note ankommt, lässt sich einen Vortrag von ChatGPT schreiben. Der Lehrer schöpft Verdacht und gibt ihr eine 6. Das Mädchen und die Eltern sind empört. Die Klasse sei vorab nicht darüber informiert worden, dass die Nutzung von KI für den Vortrag tabu ist. Und was nicht verboten ist, ist erlaubt, argumentieren sie.

Leitfaden sagt Lehrern, wie sie mit dem neuen „Hilfsmittel“ umgehen sollen.

Willkommen im Schulalltag des Jahres 2023! Vor nicht einmal einem Jahr an den Start gegangen, stellen vor allem ChatGPT und ähnliche Programme das bisherige System der Leistungsbewertung infrage. Ein Elternsprecher, der dieser Zeitung die Geschichte von der Gymnasiastin mit der 6 erzählt hat, sieht Handlungsbedarf. „Auch mir war nicht klar, dass der Verdacht auf KI-Nutzung sofort eine 6 bedeutet. An unserem Gymnasium wurde bis jetzt noch nicht ausdiskutiert, wie damit umzugehen ist“, sagt der Vater. Er wünsche sich, dass den Schülerinnen und Schülern ein verantwortungsvoller Umgang mit Künstlicher Intelligenz beigebracht wird und dass neben den Gefahren auch die Chancen gesehen werden.

Was der Elternsprecher zum Zeitpunkt des Gesprächs nicht wusste: Es gibt dazu seit zwei Monaten einen Handlungsleitfaden des Bildungsministeriums für die Lehrkräfte. Darin wird auf 28 Seiten skizziert, wie die Pädagogen KI nutzen sollten und welche Kriterien bei der Bewertung gelten. „Lehrkräfte sind dazu angehalten, offen und konstruktiv mit diesen neuen Möglichkeiten umzugehen und sie im Unterricht zu thematisieren, um den Bildungs- und Erziehungsauftrag der Schule zu erfüllen“, heißt es in dem Leitfaden.

Denise Sommer vom Grundschulverband Brandenburg lobt die Handreichung als übersichtliches und aussagekräftiges Material. Auf dem Bildungsserver gebe es dazu weitere Dokumente. „Die Herausforderung für Lehrer ist das Erkennen der KI-Texte“, sagt Denise Sommer. „Wir gehen davon aus, dass nicht immer die Quellen genannt werden.“ In den höheren Klassen dürfte das ein noch größeres Problem sein, vermutet sie. Deshalb sei das Land in der Pflicht, die Lehrkräfte endlich mit Dienst-Computern auszustatten beziehungsweise einen Zuschuss zu zahlen. In anderen Bundesländern sei das seit Jahren Standard.

Hartmut Stäker vom Brandenburgischen Pädagogen-Verband ergänzt zum Umgang mit KI, dass die von den Lehrern für eine bestimmte Aufgabe gesetzten Rahmenbedingungen entscheidend seien. Drei Möglichkeiten gebe es: 1. Die Nutzung ist erwünscht, um Potenzial und Risiko von KI kennenzulernen. 2. Die Verwendung von ChatGPT ist erlaubt, muss aber gekennzeichnet werden. 3. Jegliche Nutzung ist verboten, weil es in der Aufgabe darum geht, den Leistungsstand der Schüler zu testen.

So ähnlich wird das ab Seite 20 in dem Handlungsleitfaden ausgeführt. Aber schon im ersten Satz betont das Ministerium im Kapitel Leistungsbewertung, dass Veränderungen anstehen. „Aus der Verwendung von KI resultiert eine verstärkte Forderung nach einem Paradigmenwechsel in der Aufgaben- und Prüfungskultur“, heißt es dort. Der Trend gehe in Richtung höherer mündlicher Anteile, bei denen die Schüler nicht auf KI-Hilfsmittel zurückgreifen können.

Aufgaben anders formulieren

Für die oben genannten Fallbeispiele liefert der Leitfaden eine klare Antwort: „Für alle Leistungsüberprüfungen gilt derweil: Eine rein durch KI generierte Leistung ist keine eigenständige Leistung der Schülerin oder des Schülers.“ Werden KI-generierte Textpassagen ohne Kennzeichnung übernommen, handele es sich um eine Täuschung über die Autorenschaft. „Sofern die Verwendung von KI bei der Aufgabenstellung explizit ausgeschlossen wurde, handelt es sich zudem um die Verwendung eines unzulässigen Hilfsmittels und einen Täuschungsversuch.“

Tipp im Leitfaden für die Lehrkräfte, um daraus sich ergebenden Konflikten aus dem Weg zu gehen: Aufgaben von vornherein so stellen, „dass sie nicht ausschließlich mithilfe von KI erledigt werden können“. Hartmut Stäker betont, dass KI für alle Beteiligten in der Schule noch neu sei. Jener Lehrer, der den ChatGPT-Vortrag des Sechstklässlers durchwinkte, hätte zu dem Kind sagen sollen: „Schön, dass du damit umgehen kannst. Dann erklär uns allen doch jetzt bitte mal genau, wie man das macht!“

Ein Gedanke zu „Wenn die KI die Hausaufgaben macht“

  1. OGA vom 21. Oktober 2023 POLITIK
    Wenn der Geist erstmal aus der Flasche ist

    Künstliche Intelligenz
    Nehmen uns Computer Arbeit ab oder übernehmen sie schon bald das Kommando? Renommierte Wissenschaftler jedenfalls warnen vor den praktischen Folgen ihrer eigenen Ideen und rufen nach Regeln. Doch wie sollen diese aussehen und wer trägt die Verantwortung?
    Von Gunther Hartwig

    Einer der leistungsfähigsten Rechner der Welt, der europäische Super-Computer „MareNostrum“, steht an einem für Maschinen ungewöhnlichen Ort, der ehemaligen Kapelle Torre Girona in Barcelona. Künstliche Intelligenz (KI) in einer früheren Kirche – das hat eine gleichsam sakrale Symbolkraft. Tatsächlich gilt die schon heute beherrschende Technologie neuronaler Vernetzung vielen als neue Gottheit, anbetungswürdig, geheimnisvoll, allmächtig. Von Menschen erschaffen und geeignet, nicht nur Gutes zu bewirken, sondern letztendlich bis zum Jahr 2100 sogar die Erdbevölkerung auszulöschen, wie im Juli 200 Experten in einer Studie des amerikanischen Forecasting Research Institutes warnten?

    Dabei erscheinen die Segnungen der KI doch äußerst verheißungsvoll. Seit Jahrzehnten machen Anwendungen der Informatik revolutionäre Fortschritte auf vielen Feldern der Wissenschaft möglich, nicht zuletzt in der medizinischen Diagnostik, bei der computergestützten Bilderkennung von Krebs, Diabetes, Arterienverkalkung. Materialwissenschaften, Astrophysik, Photovoltaik, Batteriespeicherung, Mobilität – überall profitiert die Forschung von digitalen Assistenzsystemen. Und wie nützlich erst können hilfsbereite Roboter beim Einsatz in Krankenhäusern oder Pflegeheimen werden, wer mag da noch von einer Verdrängung menschlicher Arbeitskräfte durch Androide sprechen? KI nimmt uns Arbeit ab, wie schön. Oder nehmen Apparate uns die Arbeit weg und übernehmen das Kommando?

    KI darf Menschen nicht ersetzen.

    Jedenfalls hat der weltweite Wettbewerb um Produktivität und Profit durch lernfähige Mikrochips, Maschinen und Chatbots längst begonnen. Ob die Superhirne den Menschen dabei überholen, ausschalten oder gar vernichten, ist einstweilen offen. Der israelische Historiker und Zukunftsforscher Yuval Noah Harari sieht durch die KI das „Ende der Menschheitsgeschichte“ heraufziehen, eine apokalyptische Prognose. So weit waren wir aber schon oft – bei der Erfindung der Eisenbahn ebenso wie bei Einführung der Elektrizität.

    Disruptive Innovationen begleiten die Wissenschaft von Beginn an, drei bedeutende Dramatiker des 20. Jahrhunderts haben diesen Urkonflikt auf die Theaterbühne gebracht. Zuerst Bertolt Brecht („Leben des Galilei“), dann Friedrich Dürrenmatt („Die Physiker“), schließlich Heinar Kipphardt („In der Sache J. Robert Oppenheimer“). Verhandelt wurde über die Gewissensnöte von Forschern, die Unerhörtes herausgefunden oder entwickelt hatten, über Verantwortung und Loyalität, über Moral und Macht.

    Ergebnisoffene, wertfreie Forschung?

    In allen drei Stücken ist der Geist aus der Flasche, in Dürrenmatts Worten: „Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.“ So scheitert auch Galileis Versuch, seine Entdeckung über den Kosmos zu widerrufen, um im Geheimen weiter arbeiten zu können. Und bei Oppenheimer, dem Erfinder der Atombombe, steht die bittere Erkenntnis, dass es keinen ethischen Totalitätsanspruch der Humanität gibt. Das unentrinnbare Dilemma, in dem der US-Physiker und Kopf des „Manhattan-Projekts“ zur Entwicklung der nuklearen Massenvernichtungswaffe einst steckte, wird weithin als „Oppenheimer-Moment“ beschrieben. Es ist der Augenblick einer Entscheidung, die der einzelne Wissenschaftler womöglich in dem Bewusstsein fällt, dass davon die ganze Menschheit betroffen ist.

    Was als zunächst ergebnisoffene, vermeintlich wertfreie Forschung beginnt, mündet in einen Prozess, der den betroffenen Gelehrten mit der Frage konfrontiert, welche Verantwortung er persönlich für die Anwendung seiner Idee übernehmen muss, welche Schuld er für die Folgen einer theoretischen Konstruk­tion trägt. Oppenheimer stürzte nach dem Abwurf der Bomben auf Hiroshima und Nagasaki in tiefe Verzweiflung. Er war, im Rückblick, Verursacher eines „Kipppunktes“ der Menschheitsgeschichte.

    Dabei hält die gerade mit dem renommierten Körber-Preis ausgezeichnete Roboter-Forscherin Cordelia Schmid den Vergleich der KI mit der Atombombe für unzulässig. „Die Bombe hat ausschließlich negative Auswirkungen. KI auch viele positive.“ Welches Potenzial hat KI denn tatsächlich? Julian Nida-Rümelin, Philosoph und Buchautor („Die Realität des Risikos“), hält fest, dass „menschliches Abwägen nicht durch Algorithmen ersetzt werden kann“. Der Mensch sei eben „keine Maschine und umgekehrt“. Immerhin räumt der Münchner Professor ein, dass Automaten den Menschen als Autoren seines eigenen Lebens sowohl stärken wie schwächen können.

    Zauber der Maschinenintelligenz

    Diese Ambivalenz umschreibt Jürgen Schmidhuber, der seit 1985 auf dem Feld angewandter Informatik forscht und als einer der „Väter der modernen KI“ gilt, mit dem „Omega-Punkt“. Das ist jener Moment, in dem sich lernfähige Automaten so rasch selbst verbessern, dass Menschen die Entwicklung nicht mehr nachvollziehen können. Schmidhuber glaubt jedoch, dass sich diese Überlegenheit des maschinell erzeugten Denkens nicht zwingend zum Nachteil der Zivilisation auswirken muss: „Auch eine superkluge KI wird daran interessiert sein, unsere schöne Biosphäre zu erhalten.“ Interessant, so Schmidhuber, werde es, sobald lernfähige Roboter durch Interaktionen „sich physikalisch selbst replizieren können“. Dann habe man „zum ersten Mal eine neue Sorte von Leben, die nichts mit Biologie zu tun hat und sich trotzdem vervielfältigen kann“.

    Das sehen die beiden Wirtschaftswissenschaftler Daron Acemoglu und Simon Johnson vom Bostoner MIT kritischer. In ihrem Buch „Macht und Fortschritt“ beschäftigen sie sich intensiv mit der „Maschinennützlichkeit“ über verschiedene Epochen der 1000-jährigen Technikgeschichte hinweg und bezeichnen KI in diesem Zusammenhang als „Mutter aller ungeeigneten Technologien“ – die „Tech-Community“ erliege dem „Zauber der Maschinenintelligenz“. Digitale Technologien, Robotik und andere Automatisierung, so die US-Professoren, trügen schon jetzt zu einem Prozess der Deindustrialisierung in vielen Entwicklungsländern und zu wachsender globaler Ungleichheit bei, zur „Wiedergeburt der Zweiklassengesellschaft“ und zur Zerstörung der Demokratie.

    Derart dystopische Zuschreibungen teilen jene 350 Fachleute aus Forschung und Unternehmen, die sich im Mai 2023 mit einem Appell an die amerikanische Öffentlichkeit gewandt haben, nicht unbedingt. Aber ihre Warnungen vor einem „Risiko des Aussterbens durch KI“ ähnlich wie durch Pandemien oder die Atombombe klangen dramatisch genug, schließlich waren die Unterzeichner an der Entwicklung dieser Technologie maßgeblich beteiligt. Die Forderung an den Staat, künstliche neuronale Netze stärker zu reglementieren, womöglich sogar ein Forschungsmoratorium zu verhängen, um der Entwicklung nicht hoffnungslos hinterherzulaufen, war eindringlich. Oder braucht es – wie bei der Nutzung der Kernenergie – erst einen Super-Gau, damit die Nationen gemeinsam darüber befinden, wie die Risiken der KI einzudämmen sind?

    Die EU rühmt sich, mit ihrem im Juni verabschiedeten KI-Gesetz weltweit die erste umfassende Richtlinie für den Einsatz dieser Technologie geschaffen zu haben. Auch der Deutsche Ethikrat legte eine Stellungnahme vor. Die Vorsitzende, Professorin Alena Buyx, erläuterte die „ethische Faustregel“, die bei der Debatte um „Vernunft und Verantwortung der KI“ als Maßstab gilt: „Anwendungen, die mit Künstlicher Intelligenz funktionieren, müssen die Handlungs- und Entfaltungsmöglichkeiten von Menschen erweitern, nicht verringern. KI darf Menschen nicht ersetzen.“

    Der Deutsche Bundestag hat schon vor über drei Jahrzehnten einen Fachausschuss sowie ein ständiges „Büro zur Technikfolgen-Abschätzung“ eingerichtet. Doch ob diese politischen Instrumente taugen, Missbrauch und Machtfantasien im Umgang mit KI rechtzeitig zu erkennen und zu verhindern, dass ein „Point of no return“ überschritten wird, darf bezweifelt werden. Vielleicht gelingt es in Einzelfällen und beschränkt auf den Geltungsbereich bundesdeutscher Gesetze, schädliche Entwicklungen zu stoppen, aber jüngste Beispiele aus der Gentechnologie haben gezeigt, dass ethische Grenzen etwa für den Eingriff in die menschliche Keimbahn in anderen Staaten eben nicht beachtet werden – was nützen sie also nur hierzulande?

    Die Verständigung darüber, was KI darf und was nicht, muss in einem globalen Rahmen herbeigeführt werden. Es geht – wieder einmal – darum, Grundlagenwissenschaft zu ermöglichen, aber ihre technologische Anwendung Regeln zu unterwerfen. Forschung zielt darauf, den menschlichen Erkenntnisraum zu erweitern, erst wenn ihre Ergebnisse technologisch dienstbar gemacht werden, entstehen Risiken und Nebenwirkungen. Der Mensch, die Gesellschaft, wir alle tragen die moralische Verantwortung für unser Handeln und Unterlassen. Insofern haften wir gemeinsam für mögliche Fehlentscheidungen und Gefahren.

    Die Verpflichtung, Technologien auf ihre Folgen zu überprüfen und unbeherrschbare Risiken mit geeigneten Instrumenten zu minimieren, wenn nicht gar auszuschließen, kann weder an Forscher und Ingenieure noch an Unternehmer oder Politiker delegiert werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert