©Adobe Stock pinkeyes
in

Düster-helle Zukunft

von Mario Passini

Was soll dieser Titel? Nun, es geht um KI (Künstliche Intelligenz). Sie kann schrecklichen Schaden anrichten. Weltweit berichteten Medien darüber. Auch der österreichische Boulevard berichtete, wenn auch nur kurz und oberflächlich. Worum geht es? Am 14. März 2023 veröffentlichte OpenAI , ein Unternehmen mit Sitz in San Francisco, in das Microsoft stark investiert ist, ein KI-System namens GPT-4. Am 22. März behauptete ein Bericht einer angesehenen Gruppe von Forschern bei Microsoft, darunter zwei Mitglieder der US National Academies, dass GPT-4 „Funken künstlicher allgemeiner Intelligenz“ aufweist. Künstliche allgemeine Intelligenz, kurz AGI, ist ein Schlüsselwort für KI-Systeme, die den menschlichen Fähigkeiten in der gesamten Bandbreite der Aufgaben, für die der menschliche Verstand anwendbar ist, entsprechen oder diese übertreffen.

Wenn man weiterhin uneingeschränkt entwickelt, wird KI Systeme anbieten deren Fähigkeiten die menschliche Kapazität übersteigen werden. Deshalb fordern das Future of Life Institute, eine gemeinnützige Organisation, geleitet vom MIT-Physikprofessor Max Tegmark und bekannte Persönlichkeiten wie Teslas CEO Elon Musk, Apples Mitbegründer Steve Wozniak, Turing-Preisträger Yoshua Bengio sowie Hunderte von prominenten KI-Forschern, dass es eine Pause bei den großen KI-Experimenten gibt. (Petition vom 29. März d.J.). Die Zeit, zu sagen, das sei nur reine Forschung, ist längst vorbei. Regierungen müssen eingreifen, wenn große Technologiefirmen sich weigern die Risken zu sehen und zu begrenzen.

GPT-4 ist das neueste Beispiel für ein großes Sprachmodell oder LLM (Large Language Models). Man stelle sich ein LLM als eine sehr große Schaltung mit (im konkreten Fall) einer Billion einstellbarer Parameter vor. Es beginnt als unbeschriebenes Blatt und wird mit zig-Billionen Textwörtern trainiert – so viel wie alle Bücher, welche die Menschheit produziert hat. Das Ziel ist es, gut darin zu werden, das nächste Wort in einer Folge von Wörtern vorherzusagen. Nach etwa einer Milliarde Billionen zufälligen Parametern wird es sehr gut. Ab dann sind die Fähigkeiten des resultierenden Systems bemerkenswert. Laut der Website von OpenAI punktet GPT-4 bei einer Vielzahl von Hochschulzugangs- und Aufbauprüfungen unter den obersten Prozent der Menschen. Es kann den Satz von Pythagoras in Form eines Shakespeare-Sonetts beschreiben und den Redeentwurf eines Kabinettsministers aus der Sicht eines Abgeordneten einer beliebigen politischen Partei kritisieren. Jeden Tag werden verblüffende neue Fähigkeiten entdeckt. Es überrascht nicht, dass Tausende von großen und kleinen Unternehmen nach Möglichkeiten suchen, dieses unbegrenzte Angebot an nahezu kostenloser Intelligenz zu monetarisieren. LLMs können viele der Aufgaben übernehmen, welche die Jobs von Hunderten von Millionen Menschen umfassen – jeder, dessen Arbeit Sprache-in, Sprache-out ist. Optimistischer ist, dass Tools, die mit LLMs erstellt wurden, in der Lage sein könnten, hochgradig personalisierte Bildung auf der ganzen Welt bereitzustellen.

Leider sind LLMs berüchtigt für „Halluzinationen“ – das Erzeugen völlig falscher Antworten, oft unterstützt durch fiktive Zitate. Große Gefahr auch von „unverfälschten“ Bildern und Life-Videos die „echte“ Vorfälle zeigen, die es tatsächlich nicht gibt. Jüngstes Beispiel: Bilder und Videos von der Verhaftung des Herrn Trump (Und das Ende März 2023). Sie sind perfekte Werkzeuge für Desinformation. Tests von OpenAI zeigten, dass GPT-4 einen menschlichen Arbeiter absichtlich anlügen konnte („Nein, ich bin kein Roboter. Ich habe eine Sehbehinderung, die es mir schwer macht, die Bilder zu sehen“), um Hilfe bei der Lösung eines Problems zu erhalten. Derzeit gibt es technische Gründe zu der Annahme, dass GPT-4 in seiner Fähigkeit, komplexe Pläne zu erstellen und auszuführen, begrenzt ist, aber angesichts der Fortschrittsrate ist es schwer zu sagen, dass zukünftige Versionen diese Fähigkeit nicht haben werden. Deshalb die Frage: Wie behalten wir für immer die Macht über Wesenheiten, die mächtiger sind als wir? Deshalb der Aufruf der Forscher und des Future of Life Instituts. (oben erwähnt). Der Grundgedanke des im offenen Brief vorgeschlagenen Moratoriums ist, dass kein solches System veröffentlicht werden sollte, bis der Entwickler überzeugend darlegen kann, dass es kein unangemessenes Risiko darstellt.

Der Erfolg von ChatGPT führt zu Personalproblem in betreffende Unternehmen. Prompt Engineers, welche Benutzeroberflächen noch intelligenter machen, genannt auch KI-Flüsterer, werden dringend gesucht. Der Verdienst kann sich sehen lassen. Es locken Jahresgehälter um die 335.000 US-Dollar. Unbestritten, die Menschheit hat durch KI viel zu gewinnen, aber auch alles zu verlieren. Aber vielleicht brauchen wir gar keine Angst vor einem zukünftigen KI-Armageddon haben. Es gibt ja jetzt schon einen Alleinherrscher, der so alle vierzehn Tage, der Welt mit Atombomben droht.

Letzte Meldung: Ein Professor aus dem Silicon-Valley, Nobelpreisträger, der wünscht, dass sein Name nicht genannt wird, hat gemeinsam mit einer Forschergruppe eine Studie erstellt, mit der zweifelsfrei nachgewiesen wird, dass es, wenn es denn eine „künstliche Intelligenz“ (KI) gibt, es in naher oder fernerer Zukunft auch eine „künstliche Dummheit“ (KD) geben muss. KD wird unbemerkt, maschinengestützt, Menschen befallen. Betroffene befänden sich dann im Stadium eines „drunken stone idiot“ (Originaltext. Frei übersetzt: „Besoffener Trottel.“ D. Autor) und verhielten sich dennoch, nach außen hin, vollkommen unauffällig. WOW. Unglaublich. Was heißt Zukunft, ich kenne jetzt schon einen solchen. Abschließend, möchte ich auch das den  Leserinnen und Lesern nicht vorenthalten: Ein extempore zur gegenwärtigen Situation in unserem Land. Ich zitiere Papst Gregor, den Großen, (512 n Chr.), der sinngemäß meinte: „Die Vernunft kann sich mit größerer Wucht dem Unsinn entgegenstellen, wenn der Zorn ihr dienstbar zur Hand geht.“ Der Heilige Vater hatte einen außerordentlichen Weitblick.

 

Quellen: NTV, Science News Magazin, Newsfeed, Economist, u.v.a

Führungsteam

Mit Stärke punkten