Navigieren auf der MfK-Website

Podcast über Künstliche Intelligenz

Dies ist der erste von drei Blog-Beiträgen zum Podcast-Projekt «Supernova», das im Rahmen der Ausstellung «Super – die zweite Schöpfung» entstanden ist. Was können Maschinen, was können sie nicht? Wo sind sie dem Menschen bereits ebenbürtig oder sogar überlegen? Und ganz konkret: können sie vielleicht sogar Kunst machen – oder einen Podcast? Im ersten Beitrag geht es um den Turing-Test, also die Frage, ob und wie Mensch und Maschine auseinanderzuhalten sind. Könnte es uns heute schon passieren, mit einer Maschine in ein Gespräch verwickelt zu werden und nicht zu merken, dass das Gegenüber gar kein Mensch ist?

 

Vielleicht haben die Maschinen den Turing-Test schon bestanden, vielleicht können sie uns schon glaubhaft vorspiegeln, sie seien gar keine Maschinen, sondern Menschen. Vielleicht ist es auch noch nicht ganz soweit und wir entlarven den Chatbot nach spätestens ein paar Gesprächsfetzen.  Aber eines ist sicher: Wir können in digitalen Interaktionen nicht mehr immer und überall hundertprozentig sicher sein, ob wir es nun mit Mensch oder Maschine zu tun haben, zum Beispiel in der Hotline, wenn wir sehr überzeugend und charmant empfangen und weitergeleitet werden. War das wirklich ein Mensch oder eine Computerstimme?

Parallel dazu entsteht vor unseren Augen das Metaversum, die Kontroverse um den neuen Facebook-Namen hat die Entwicklung zum ersten Mal ins Bewusstsein einer breiteren Öffentlichkeit gespült: ein VR oder AR-Klon der Realwelt. Mit viel weitreichenderen Anwendungen als nur zum Gamen oder für wilde Hollywood-Fantasien. Da wird gerade eine digitale Spiegelwelt gebaut, in der sich Menschen wie Maschinen gleichberechtigt bewegen. Oder auch: Second Life wird erwachsen. Längst gibt es erfolgreiche Influencer*innen, die rein digitale Existenzen sind; Kunstfiguren also – aber gilt das nicht ebenso für die Kardashians oder M.I.A.?

Und natürlich gibt es Bots. Sie sind inzwischen überall anzutreffen. Manche sind strohdumm, andere sehr versiert. Und vor allem Sprach-KIs werden immer besser, sie generieren Text schon auf verblüffend menschliche Weise.

Schaut also ganz danach aus, als würden wir eine neue Medienkompetenz brauchen, die sich auskennt im Graubereich von Mensch und Maschine. Müssen wir alle zu Turing-Test-Prüfer*innen werden? Brauchen wir ein Sensorium, das uns in jedem Moment des Alltags vor künstlicher Intelligenz warnen kann, sei es im Online-Beratungsgespräch, auf Social Media, beim Chatten auf im Game «Fortnite»?

 

 

 - vergrösserte Ansicht
Wer antwortet uns im Chat: ein Mensch oder eine Maschine?
 - vergrösserte Ansicht
Können wir uns immer sicher sein, mit einem Menschen zu chatten, wenn wir im Internet kommunizieren?

Alan Turing hat seinen Test («The imitation game») aus dem Jahr 1950 bekanntlich als Gesprächs-Spiel konzipiert. Er stellte sich eine neutrale Dialogsituation vor, bei der ein Mensch allein anhand der Antworten entscheiden sollte, ob der Gesprächspartner ein Mensch oder eine Maschine sei. Schafft die Maschine es, sich für fünf Minuten glaubhaft als Menschen auszugeben, ist der Test bestanden.[1] Diese Art von Konversation schaffen die Maschinen tatsächlich schon ganz gut, spätestens seit dem Aufkommen der aktuellen Transformer-Modelle (wie die entsprechenden KIs im technischen Jargon heissen), die zu den grössten Neuronalen Netzwerken überhaupt gehören. Die bekannteste derartige KI ist GPT-3, von der Firma OpenAI entwickelt und 2020 vorgestellt. Wer will kann sich hier ein wenig mit ihr unterhalten.

 

Das Potential von GPT-3 ist noch lange nicht ausgeschöpft. Und die Entwickler arbeiten längst an der nächsten Version, GPT-4. Sie soll rund 500mal grösser ausfallen als die KI, die letztes Jahr auch manch eine*n Skeptiker*in verblüfft hat. Wie «authentisch» wird sich ein Gespräch mit der Maschine dann anfühlen? Und was wird sie sonst noch alles können? Denn längst geht es den OpenAI-Entwicklern um mehr als nur Sprachfähigkeit:

“In 2021, language models will start to become aware of the visual world. Text alone can express a great deal of information about the world, but it is incomplete, because we live in a visual world as well.”

(2021 werden Sprachmodelle beginnen, sich der visuellen Welt bewusst zu werden. Text allein kann zwar eine Menge Information über die Welt ausdrücken, aber er ist unvollständig, weil wir in einer visuellen Welt leben. Ilya Sutskever, OpenAI-Mitgründer)

 

Was uns zur Frage bringt, welche menschlichen Fähigkeit der Maschine noch am längsten Schwierigkeiten machen wird, wenn munteres Konversieren (oder soll man sagen: Small Talk?) nicht mehr wirklich eine Herausforderung darstellt. Was ist der ultimative Turing-Test? Dazu mehr im nächsten Blog-Beitrag.

 

***

[1] Turing wurde da übrigens ein wenig missverstanden, er meinte seinen Test nicht wirklich als KI-Prüfung, sondern als Gedankenspiel, als philosophisches Ausweichmanöver sozusagen. Tatsächlich ging ihm die Frage, ob eine Maschine wirklich «intelligent» sein könne, auf die Nerven – er glaubte, dass sie keinen Sinn macht, beziehungsweise dass sie falsch gestellt sei. Wenn wir die Maschine als intelligent ansehen, dann sei sie es auch, egal ob sie ein eigentliches «Verständnis» dessen entwickelt habe, was sie da tue (oder gar ein Bewusstsein). Der Turing-Test sollte diesen Gedanken illustrieren: Sobald eine Maschine etwas so gut kann, dass wir ihr menschliche Fähigkeit zusprechen, hat sie diese Fähigkeit auch. Also in diesem Fall: Konversationsfähigkeit. Oder auch: Witz, Ironie, Abgründigkeit – man ergänze nach Belieben.

Ausstellung

Super - Die zweite Schöpfung läuft noch bis zum 10. Juli 2022.

Autor

Roland Fischer

Roland Fischer ist freier Wissenschaftsjournalist und Organisator von Wissenschaftsevents.

Er hat mit This Wachter, Jennifer Khakshouri, Simon Meyer und Luki Fretz den Podcast umgesetzt. 

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

X