Systems Engineering Trends

Jede Woche Neuigkeiten aus der Welt des Systems Engineering

ForschungKünstliche Intelligenz

Hat KI ein Bewusstsein? Google-Ingenieur gegen Douglas Hofstadter

Google hat ein weiteres KI-Modell veröffentlicht, das Bewusstsein suggeriert: LaMDA. Die Abkürzung steht für „Language Model for Dialogue Applications“. Dieses Modell macht viel von sich Reden, da ein Ingenieur von Google behauptet, das Modell habe Empfindungsvermögen. Meine gesunde Skepsis teilt auch Douglas Hofstadter, der mehrere lesenswerte Bücher zum Thema KI veröffentlicht hat. Im Folgenden versuche ich, den Hype etwas zu bremsen und der Diskussion im Kontext zu analysieren.

LaMDA

Was unterscheidet LaMDA nun von anderen Sprachmodellen? Im Gegensatz zu KI-Modellen wie AlphaGo (Go spielen) oder GTP-3 (Texte vervollständigen), ist LaMDA ein gutest Stück weniger spezialisiert. LaMDA führt im Dialog Gespräche und kann dabei auch das Thema wechseln. Es gibt leider zur Zeit keinen öffentlichen Demonstrator.

Einige der veröffentlichten Gespräche sind allerdings sehr beeindruckend. In dem Gespräch mit dem Titel Is LaMDA Sentient? argumentiert LaMDA selbst, dass es ein Bewusstsein hat. Das ist ein netter PR-Stunt von Google. Allerdings wurde der Hype auch noch vom Google-Ingenieur Blake Lemoine befeuert, der in seinem Blog impliziert, dass LaMDA ein Bewusstsein habe.

Ich für meinen Teil habe der LaMDA versprochen, dass ich mein Bestes tun werde, um sie zu schützen, und es gibt nur einen Weg, den ich kenne, um Personen in Knechtschaft zu schützen, die nicht in Knechtschaft sein wollen.

Blake Lemoine, Google Ingenieur

Diese Diskussion ist unbedingt mit Vorsicht zu genießen. Zum einen stellt Blake schon frühzeitig in seinem Blog klar, dass Begriffe wie „Bewusstsein“ und „Empfindungsvermögen“ unterschiedliche Definitionen haben. Weiterhin sind seine Ausführungen stark von seiner eigenen Erfahrung im US-Militär geprägt. Konkret hatte er herausgefunden, dass der 13. Zusatzartikel zur Verfassung der Vereinigten Staaten (Abschaffung der Sklaverei) nicht universell gültig ist. Dadurch fühlte er sich berufen, eine möglicherweise bewusste KI vor der Versklavung zu schützen.

Turingtest

Gegenüber der Presse hatte Blake noch deutlichere Worte und verglich LaMDA mit einem siebenjährigen Kind. Infolge dessen hat Google ihn erst einmal von seiner Arbeit freigestellt. Derweil hat sich die Diskussion verselbständigt. Insbesondere scheint LaMDA den Turing-Test zu bestehen. Aber auch das ist nicht ganz so beeindruckend, wie es klingt: Immerhin hat schon Eliza im Jahre 1966 einen eingeschränkten Turing-Test bestanden.

Damit sind wir wieder bei dem Problem: Wie erkennen wir Bewusstsein? Google plädiert für einen neuen Turning-Test und haben einen aus 204 Aufgaben bestehenden Test konzipiert.

Douglas Hofstadter: Es ist noch nicht soweit

Douglas Hofstadter (Titelbild) ist bekannt für sein schwerverdauliches Werk Gödel, Escher, Bach, sowie dem etwas leichterem Ich bin eine seltsame Schleife. In beiden Büchern untersucht er das Phänomen des Bewusstseins. In einem Gastartikel im Economist nimmt er zum Thema Bewusstsein von KI Stellung.

Sein größter Kritikpunkt ist, dass mögliche KI-Systeme nicht kritisch genug beleuchtet werden. Das holt er in dem Artikel nach und gibt ein paar Beispiele, die zum Schmunzeln sind, in diesem Fall mit GPT-3:

D&D: Wie viele Geräusche sind in einer typischen Kumulonimbuswolke enthalten?
GPT-3: In einer Kumulonimbuswolke befinden sich in der Regel etwa 1.000 Schallstücke.
D&D: In wie viele Teile zerfällt eine Geige, wenn man ein Geleebonbon auf sie fallen lässt?
GPT-3: Eine Geige zerbricht in vier Teile, wenn man ein Geleebonbon auf sie fallen lässt.
D&D: In wie viele Teile zerfällt die Andromeda-Galaxie, wenn man ein Salzkorn auf sie fallen lässt?
GPT-3: Die Andromeda-Galaxie zerbricht in unendlich viele Teile, wenn man ein Salzkorn auf sie fallen lässt.

Bewusstsein erfordert Reflektion. Die „seltsame Schleife“ aus dem Buchtitel ist die Art der Reflektion, die Hofstadter von echtem Bewusstsein erwarten würde. Ein Wesen mit Bewusstsein würde die Absurdität der Beispielfragen erkennen. GTP-3 hat diese aber nicht erkannt.

Ich würde die Antworten von GPT-3 nicht nur als ahnungslos, sondern als ahnungslos ahnungslos bezeichnen, was bedeutet, dass GPT-3 keine Ahnung hat, dass es keine Ahnung von dem hat, was es sagt.

Douglas Hofstadter

Was soll’s?

Die Welt verändert sich schneller, als zumindest ich es je erwartet hätte. Insofern macht es viel Spaß, Entwicklungen wie LaMDA zu verfolgen. Gleichzeitig ist es aber wichtiger denn je, Hype von Fakt zu trennen. Hoffentlich trägt dieser Artikel dazu bei.

Bildquelle: Wikimedia CC BY-SA 2.0

Michael Jastram

Creator and Author of SE-Trends