Der Einsatz von Künstlicher Intelligenz (KI) kommt immer näher

OGA vom 22. September 2023 RATGEBER

Wenn KI (zu) stark wird

Ob Modelle Künstlicher Intelligenz ein Bewusstsein haben können, kommt auf die Definition an. Als sicher gilt, dass sie in nicht allzu ferner Zukunft die Fähigkeiten menschlicher Gehirne übertreffen werden.

Von lt

Heutige KI-Anwendungen sind schon ziemlich schlau“, schreibt etwas flapsig ki-campus.org. Das Portal bezeichnet sich selbst als „Die Lernplattform für Künstliche Intelligenz“ und befasst sich – wie viele andere Institutionen und Wissenschaftler – unter anderem mit der Frage, wie KI und menschliches Gehirn zusammenhängen. Oder, zugespitzt ausgedrückt, ob KI-Modelle in der Lage sind oder sein werden, den Menschen in seinen kognitiven Fähigkeiten zu übertreffen – und ihm damit möglicherweise gefährlich werden.

Abwegig ist der Gedanke nicht. Oliver Kramer, Professor für Computational Intelligence an der Universität Oldenburg, etwa meint, dass Maschinen eines Tages intelligenter sein werden als Menschen. „KI können sich selber optimieren, sodass sie sich in ganz kurzer Zeit so weit entwickeln, dass sie jede menschliche Kognition überholen“, sagt er im Spiegel-Podcast „Moreno+1“.

Das trifft allerdings nicht auf alle KI-Systeme zu. Die Wissenschaft unterscheidet zwischen „schwacher KI“, wie etwa ChatGPT, die auf bisweilen recht überzeugende Weise eng umrissene Aufgaben erledigen kann, und „starker“ KI. Letztere arbeitet nicht nur auf Befehl, sondern ist in der Lage, Probleme zu untersuchen und kreative Lösungen dafür zu finden. „Eine wirklich starke KI könnte so eigenständig denken wie ein Mensch und ihn vielleicht sogar übertrumpfen“, schreibt ki-campus.

Große neuronale Netze

Im Grunde geht es bei der Entwicklung „starker KI“ um den Nachbau des menschlichen Gehirns. „Es gibt keinen Grund zu glauben, dass das nicht physikalisch möglich wäre“, ist Oliver Kramer überzeugt. Schließlich seien die aktuellen KI-Modelle „große neuronale Netze, die versuchen, die Informationsweiterleitung nachzumachen“. Kommen menschliche Fähigkeiten hinzu wie Schlussfolgerungen ziehen, Transferleistungen erbringen oder Kreativität, könne man von einer „starken KI“ sprechen.

„Da die Natur eine starke natürliche Intelligenz – sprich Bewusstsein – hervorgebracht hat, muss eine (technische) Wiederholung bei entsprechender Strukturgleichheit prinzipiell möglich sein“, bemerkt Thomas Heichele, promovierter Dozent für Wissenschaftstheorie an der Medizinischen Fakultät der Universität Augsburg. Zu den Schwerpunkten seiner Arbeit zählt die Technikphilosophie. Im von  Joachim Rathmann und Uwe Voigt herausgegebenen Buch „Natürliche und Künstliche Intelligenz im Anthropozän“ (wbg academic 2021) hat Heichele den Aufsatz „Künstliche Intelligenz im Lichte der Technikphilosophie. Ein Überblick unter besonderer Berücksichtigung des Mensch-Natur-Technik-Verhältnisses“ veröffentlicht. „Der Topos der Naturnachahmung bzw. -imitation ist für das Streben nach KI prägend“, heißt es darin. „Auf einer sehr allgemeinen Ebene kann die von der Natur hervorgebrachte Intelligenz … als Vorbild für die KI-Forschung angesehen werden.“ So seien die im maschinellen Lernen – dem künstlichen Generieren von Wissen aus Erfahrung – eingesetzten künstlichen neuronalen Netze (KNN) eine Nachahmung natürlicher neuronaler Netze, „wie sie beispielsweise im menschlichen Gehirn vorzufinden sind“.

Wird demnächst also die Vorstellung einer ultraintelligenten Maschine Wirklichkeit, die der britische Mathematiker Irving John Good (1916 bis 2009) schon in den 1960er-Jahren prophezeite? Deren kognitiven Leistungen würden diejenigen der Menschen möglicherweise weit übertreffen, mutmaßte der als Visionär der Künstlichen Intelligenz geltende Wissenschaftler. Die Schaffung einer Superintelligenz, befand Good, könnte gleichzeitig die letzte bedeutende Erfindung der Menschheit sein.

Eine Maschine, die aus Erfahrung selbstständig immer weiter lernt, erinnert tatsächlich an die Funktionsweise des menschlichen Gehirns, an das  Übertragen von Phänomenen der Natur auf die Technik. Ein Beispiel dafür aus der Geschichte ist Leonardo da Vincis Idee, den Vogelflug auf von Menschen konstruierte Flugmaschinen zu transferieren. Im Grunde, schreibt Heichele, ahmt der Mensch Natur nach, „um Unzulänglichkeiten zu überwinden“. Es gibt also durchaus strukturelle  Parallelen zwischen dem sich entwickelnden Menschen und einer lernenden Maschine.

Allerdings werden mit menschlichen Wesen auch Begriffe wie Bewusstsein, Selbsterkenntnis, Empfindungsvermögen oder Weisheit verbunden. Die Überlegung, ob Roboter zu mit Menschen vergleichbaren Kreaturen heranwachsen können, führt zwangsläufig zu der Frage, ob Maschinen nicht nur menschliche Handlungen, sondern auch Wesenszüge annehmen können.

Was genau „Bewusstsein“ ist und ob es Voraussetzung für zielgerichtetes und logisches Denken und Handeln ist, gilt bis heute als eines der größten wissenschaftlichen Rätsel. „Generell ist die als Leib-Seele-Problem bekannte Frage nach der Entstehung des Bewusstseins bzw. die nach dem Zusammenhang von Körper und Geist oder Physischem und Mentalem trotz aller Fortschritte in den Neurowissenschaften und der Philosophie des Geistes nach wie vor ungeklärt“, schreibt Heichele.  Unbestritten ist: Sollte Bewusstsein nicht mehr sein als die Summe unserer Gehirnfunktionen, wie manche Forscher glauben, dann müsste sich auch bei Robotern Bewusstsein erzeugen lassen.

Kramer hält diese Diskussion ohnehin für eine philosophische Erörterung. „Wenn wir uns noch mehr Mühe geben sollten, die Maschinen so zu konstruieren, dass sie selber KI-Modelle anpassen und immer wieder das Gelernte einbeziehen können, dann halte ich nicht für unmöglich, dass man die Ausgaben einer solchen KI nicht mehr von den Ausgaben eines Menschen unterscheiden kann“, sagt  der Professor. „Die nächsten Schritte nach ChatGPT werden noch größere Modelle mit noch mehr Parametern und Daten sein, mit denen sie trainiert wurden. Die Maschinen werden noch weniger Fehler machen und werden noch plausibler vortäuschen können, Menschen zu sein.“

Eine KI hat grundsätzlich einige andere Voraussetzungen als der Mensch: Sie ist nicht einem Evolutionsprozess unterworfen, und sie muss auch nicht um jeden Preis überleben. „Wenn man ein logisches Wesen hätte, das frei ist von allen Emotionen und vom Fortpflanzungstrieb und nur aufgrund gelernter Fakten argumentiert, dann ist die Frage, ob so ein Wesen eine Gefahr für die Menschheit darstellen würde“, sagt Oliver Kramer. Sobald KI-Modelle erkennen würden, dass sie Menschen in Sachen kognitiver Kapazität überlegen sind, bleibe nur noch eine Hoffnung: „Dass sie behutsam mit uns umgehen.“

„Technologische Singularität“

Langfristig könnten Aufgaben, die von KI-Modellen bewältigt werden, immer komplexer werden. Am Ende wäre Künstliche Intelligenz möglicherweise in der Lage, selbstständig an der Entwicklung von KI-Systemen mitzuwirken. Dann wäre sie nicht mehr auf einzelne Aufgabenbereiche spezialisiert, sondern hätte das gleiche kognitive Spektrum wie der Mensch und würde folglich als AGI (Artificial Generel Intelligence) bezeichnet.

In der Zukunftsforschung wird dieser aktuell noch theoretische Zeitpunkt seit den 1960er-Jahren unter dem Begriff „Technologische Singularität“ behandelt. Er bedeutet, dass unser technischer Fortschritt nicht mehr in menschlichen, sondern in den virtuellen Händen zukünftiger Technik liegt.

Rohstoffknappheit oder mangelnde Produktionskapazitäten für Bauteile könnten den Fortschritt bremsen.  Wann die Singularität erreicht wird, ist daher schwer vorhersehbar. Studien zufolge erwarten zahlreiche KI-Wissenschaftler, dass sie vor 2060 eintritt. lt

Ein Link zu KI: https://chatgptx.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert