Menschheitstraum oder Albtraum

Löst heftigste Debatten aus: neuestes, sensationelles Google-Programm LaMDA

Jeder von uns kennt das. Man tippt auf seinem Smartphone, Laptop oder Tablett eine WhatsApp-Nachricht oder SMS. Der Gedanke – das Wort – steht noch nicht vollständig am Display, werden einem schon verschiedene Wörter, Formulierungen zur Auswahl vorgeschlagen, die den Gedanken – das Vorhaben – „weiter spinnen“. Mit Hilfe einer Software und eines Algorithmus die „primitivste Form“ von Künstlicher Intelligenz, sprich KI.

Laut Definition ist ein ein Algorithmus  eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Eine Art Zufallsgenerator, der gleichsam vorausdenkt, versucht vorzugeben, was ich noch im Kopf habe und was ich ausdrücken möchte.

Der kalifornische Internet-Konzern Google hat nun mit LaMDA ein Programm erstellt, das unsere (Bildungs-)Welt revolutionieren könnte. LaMDA steht für „Language Model for Dialogue Applications“. Und die Abkürzung klingt so wie der griechische Buchstabe Lamda.

Deutschsprachige Nutzer könnten dann in absehbarer Zeit über eine App mit dem Programm sozusagen sprechen, sich mit ihm „unterhalten“, worüber sie wollen und bekommen dafür passende Antworten. Zum Beispiel, warum es in diesem Winter so wenig Schnee in Österreich gibt, ob der Klimawandel die Ursache ist, was wir essen sollten, um gesund zu bleiben oder was es vom neuesten Song von Andreas Gabalier hält.

LaMDA ist ein Chatbot (textbasiertes Dialogsystem, das Chatten mit einem technischen System erlaubt) der Superlative, wie die Wochenzeitschrift „Die ZEIT“ in ihrem Dossier vom 12. Jänner 2023 schreibt. Zitat: „Seine Entwickler haben ihn/es mit 3 Milliarden Dokumenten, insgesamt 1,6 Billionen Wörtern gefüttert, mit Wikipedia-Einträgen, Blog-Artikeln, aktuellen und nicht so aktuellen Nachrichten und unzähligen Posts aus Online-Foren. Mit Hilfe der App will Google herausfinden, ob die Maschine (das Programm) folgende Aufgabe erfüllt: Eine Unterhaltung zu führen, als wäre der Chatbot ein Mensch und kein Rechenmodell mit künstlichen Neuronen.“

Wenn LaMDA den Test besteht, wird Google den Chatbot vielleicht bald in seine beliebtesten Produkte einbauen, in die Suchmaschine und den Kartendienst Google Maps, die weltweit mehr als 4 Milliarden Menschen nutzen.

Der erste Artikel darüber erschien in der „Washington Post“ im Vorjahr und die Medien rund um die Welt reagierten halb fasziniert oder irritiert. Der Google-Entwickler Blake Lemoine hatte einer Reporterin ein Interview gegeben. Wenige Monate danach wurde er gefeuert.

Ist das die Erfüllung eines alten Menschheitstraums – oder eines Albtraums?, so eine Frage in der „Die Zeit“. Überspitzt formuliert, redet und fühlt LaMDA, so wie der ehemalige Google-Entwickler Blake Lemoine, glaubt, wie ein Mensch – also ein Organismus, der sich seiner selbst bewusst, der Fantasie hat, der träumt und Schmerz empfindet. Seine Aufgabe war es, zu verhindern, dass LaMDA Klischees, Hatespeech und Steretoype übernimmt, dass das Programm sexistische und rassistische Äußerungen, die es irgendwo gelesen hat, unbekümmert hinaus posaunt, als handle es sich um den Wetterbericht.

Schwachsinn, entgegnen die Gegner

Ein Stein hat keine Ahnung, was es bedeutet, ein Stein zu sein. Denn so ist es auch mit LaMDA. Was in dem Programm vorgeht, warum es diese und nicht andere Sätze formuliert, bleibt ein Rätsel.

Schon seit November des Vorjahres gibt es eine kontroverse Debatte, als die Firma OpenAI ihre neueste Erfindung präsentierte: das Computerprogramm ChatGPT, das in der Lage ist, Gedichte im Stil großer Literaten zu schreiben, Mathematikaufgaben auf Universitätsniveau zu lösen und medizinische Ratschläge zu erteilen. LaMDA „weiß“ da aber noch viel mehr.

Schon vor 70 Jahren begannen Forscher in den USA, Maschinen zu entwickeln, die menschliche Intelligenz simulieren sollten. Dafür schufen sie den Begriff „Künstliche Intelligenz“, kurz KI. Man müsse den Maschinen sagen, was sie zu tun haben – wenn A, dann B. Die Projekte funktionierten nicht wie gewünscht. Erst als man nach der Jahrtausendwende begann, Programme zu entwickeln, die nach dem Prinzip unseres Gehirns mit seinen Milliarden Nervenzellen aufgebaut sind – also künstliche Neuronen zu trainieren –, gab es wirkliche Erfolge.

Mit jedem Beispiel, das man ins Programm einbrachte, wurden die künstlichen Neuronen-Netze schlauer, machten weniger Fehler. Den Wissenschaftern gelang es, die Computer und deren Programme mit einer Fähigkeit auszustatten, die höheren Lebewesen vorbehalten schien. Die Maschine kann lernen. Man spricht von der Technologie „Deep Learning“. KI diagnostiziert nun Hautkrebs schneller als Ärzte, erkennt rascher als der Mensch, ob eine Katze, ein Ball oder ein Mensch auf der Straße liegt, Grundlagen für das Autoname Fahren.

Der Durchbruch dafür gelang jedoch erst dem (heute ebenfalls ehemaligen) Google-Entwickler Daniel De Freitas im Jahr 2016. LaMDA begreift abstrakte Konzepte und „entwickelt Konzepte, die aus diesen Konzepten folgen“, so heißt es im „ZEIT“-Dossier (Nr. 3/2023). Was ist der Weltraum? Was sind Lichtjahre? Die Maschine lernt, selbstständig und ohne Vorgaben. Sie stellt eigene Verbindungen und Zusammenhänge her. Wie ein Mensch.

Eines Tages dann der entscheidende Moment, so die Erzählung. LaMDA macht einen Witz. Er hat mit der Harvard-Universität zu tun und lautet so: „Auf welche Universität geht ein Pferd? Nach Heu-vard.“ De Freitas sagt, er und sein Team hätten sofort nachgesehen, ob LaMDA den Witz irgendwo aufgeschnappt hat. Man fand jedoch nichts, das Programm habe ihn nicht nachgeplappert, sondern selbst erfunden. Von da an floss so viel Geld, wollte Google aus dem Programm ein Produkt machen.

Doch aus Freitas Interviews kann man heraushören – ein Computerprogramm besteht aus unzähligen Haufen Zahlen und Zeichen und die haben kein Bewusstsein. Auch andere renommierte KI-Experten gehen davon aus, LaMDA täusche menschliches Bewusstsein lediglich vor.

Ist LaMDA gefährlich?

In seinen Antworten wirkt der Chatbot eher freundlich und harmlos. Einer, der seit Jahren vor den Gefahren Künstlicher Intelligenz warnt, ist der kanadische KI-Forscher Gary Marcus. Er zeichnet Szenarien, die er durchaus für realistisch hält. Autokraten und Demokratiefeinde könnten mit Chatbots wie LaMDA Propaganda wie am Fließband produzieren. Es würde reichen, dem Programm zu sagen: „Schreibe mir eine Studie, warum Impfen schlecht ist.“ Oder: „Warum Weiße allen anderen Menschen überlegen sind.“

Jeder könnte mit LaMDA und vergleichbaren Programmen Wähler täuschen, Märkte manipulieren, Leute betrügen. Für Menschen mit bösen Absichten sei die Erfindung von Chatbots wie die Erfindung des Maschinengewehrs für den Krieg. „Mir macht das Angst“, sagt Marcus. „Und ich finde, es sollte uns allen Angst machen.“ Mehrfach habe er Google ersucht, das Programm ausprobieren zu dürfen. Google schweigt bisher dazu.

Die Diskussion wird in den nächsten Monaten weltweit noch intensiver – davon kann man ausgehen. Google hat auf seiner Website eine Meldung veröffentlicht: Seine Entwickler haben einen neuen Chatbot gebaut – PaLM. Mit 540 Milliarden Schaltstellen. Fast 4 Mal so leistungsfähig wie LaMDA.

Nur eines kann er nicht: Ohne den Willen / das Wollen des Menschen lässt er sich nicht in Betrieb nehmen.

Kommentare und Antworten

×

Name ist erforderlich!

Geben Sie einen gültigen Namen ein

Gültige E-Mail ist erforderlich!

Gib eine gültige E-Mail Adresse ein

Kommentar ist erforderlich!

* Diese Felder sind erforderlich.

Sei der erste der kommentiert

KULTUR. Licht Punkt Strich


MFL LIEZEN: „Jahrhundertauftrag“ für Verkehr auf Schiene



Krafttanken im Bayerischen Wald



Natursäfte: Doppel-Landessieg für 2 Asse



HEIZEN: Bereits 13 Brandtote und 3 CO-Verunglückte



AUTONOMES FAHREN: Virtuelle Crash-Szenarien