Eva Weber-Guskar: Gefühle der Zukunft

Innerhalb kurzer Zeit hat das Thema „Künstliche Intelligenz“, die KI, englisch AI, Jahrzehnte eher schlummerndes Thema in der Informatik, breite Beachtung bekommen. Spätestens mit ChatGPT-40, ein Large Language Model (LLM) von OpenAI, kommt man einer künstlichen Intelligenz scheinbar immer näher. Modelle wie Gemini von Google oder Llama von Meta können, so scheint es, natürliche Fragen verstehen, Antworten generieren und dazu umfangreiche Recherchen durchführen. Neuer Höhepunkt sind Social Bots, auf KI beruhende Mentoren und Berater, die als Partner und mehr dienen sollen. Vor kurzer Zeit las ich, dass eine Frau ihren Social Bot geheiratet hat. Diese Modelle, so scheint es, können Emotionen und Gefühle haben, Empathie leisten und vieles mehr. Aber können Computerprogramme, deren Reaktionen eher auf riesigen Datenmengen aus dem Internet und Wahrscheinlichkeiten beruhen, wirklich Gefühle haben? Das können sie nicht, auch Staubsauger und Airfryer sind nicht zu Emotionen fähig, ein LLM ist auch nur eine Maschine, eine Software. Warum dann der Hype um die Social Bots? Es liegt in der Hauptsache an den Unternehmen, die hinter der künstlichen Intelligenz stehen, und die letzten Endes damit Geld verdienen möchten. So geht Eva Weber-Guskar auch nicht primär auf die Technik dahinter ein, sondern widmet sich philosophischen und psychologischen Aspekten hinter dem „Affective Computing“, dem Versuch, der künstlichen Intelligenz Emotionen beizubringen. Wobei Emotionen und Gefühle zwei unterschiedliche Sachen sind, die gerne verwechselt werden. Ganz zu schweigen von den Lügen und Fehlinformationen, die sich Elon Musks KI geleistet hat. Wollen wir das durch Emotionen gesteigert auf die Menschheit loslassen?

Eva Weber-GuskarGefühler der Zukunft

Für Eva Weber-Guskar steht nicht in Frage, dass künstliche Intelligenz durch ihre Fähigkeiten zur Mustererkennung und Verknüpfung von vielfältigen Informationen in Medizin und Technik hervorragende Dienste leistet. In Steuerungen und Analyseverfahren kann KI Menschen entlasten, Fehler oder Erkrankungen erkennen und entgegenwirken. Roboter können Arbeiten übernehmen, die schmutzig, gefährlich oder schlicht dumm sind. In der Öffentlichkeit mit technisch und mental weniger vorgebildeten Menschen wird KI mit seinen LLMs jedoch eher wie ein lebendiges Wesen gesehen. Zwar haben wir schon immer unseren Autos oder anderen technischen Gebilden Namen gegeben, sprechen sie an oder entwickeln ein persönliches Verhältnis zu ihnen. Wird das nun auf eine künstliche Intelligenz übertragen, kommt es schnell zu Schieflagen. In diesem Sektor tummelt sich das, was viele Unternehmen nun den Sprachmodellen mitgeben wollen: Emotionen und Stimmungen zu erkennen und entsprechend zu reagieren. Oder gleich selbst Emotionen und Gefühle vorzuspiegeln. Nur kurzes Nachdenken bestätigt Weber-Guskars Argumentation. Wie zuverlässig das Erkennen von Gesichtszügen oder Sprachmelodien ist, daran scheitern schon wir Menschen schnell. Lächelt mein Gegenüber freundlich oder grinst es abschätzig? Zeigt der Gesichtsausdruck Ekel oder Erschrecken? Ist der Mensch in der Bahnhofshalle nervös, weil er Böses vorhat oder ist er spät dran und nur in Eile? So hat sich der Versuch, mittels Gesichtserkennung oder Bewegungsanalyse in öffentlichen Räumen Gefahrenprävention zu betreiben, schnell als wenig zuverlässig gezeigt. In London hat man ganze Straßenzüge mit Kameras zugepflastert, die Kriminalitätsrate ist konstant.

Neben den eher oberflächlichen Betrachtungen, ob eine Software wirklich Emotionen erkennen kann, geht die Problematik des Affective Computing noch viel tiefer. Wenn nämlich Chatbots oder Avatare zwischenmenschliche Beziehungen ersetzen sollen. Dann werden rote Linien überschritten, wenn eine so genannte emotionale KI nicht mehr selbst bestimmt in einer gemeinsamen Realität mit anderen Menschen genutzt wird. Denn wirkliche Emotionen und Gefühlen setzen mehr voraus als Antworten aus statischen Zuordnungen. Bewusstsein braucht Körperlichkeit, ein Haufen Sensoren kann diese nicht ersetzen. Der Glaube an eine emotionale KI mit einem Bewusstsein kann zur Folge haben, dass Grenzen zu rein fiktionalen Beziehungen nicht mehr erkannt werden. Wenn ethisch verwerfliche oder inhumane Bedürfnisse befriedigen werden können, unabdingbare soziale Fähigkeiten wie Toleranz, Respekt und Rücksichtnahme verlernt werden. Beispiel Roboter in der Pflege. Äußerliche Versorgung mit Medikamenten oder Hilfe bei alltäglichen Arbeiten könnten wohl von Robotern übernommen werden, aber Pflege ist mehr als nur Anwesenheit. Nämlich Zuwendung und Empathie. Wenn Roboter durch ihre äußere Anmutung in der Lage sind, bei ihrem menschlichen Gegenüber wie alten Menschen oder Pflegebedürftigen Gefühle zu simulieren und emotionale Erwartungen auszulösen, sind solche Grenzen längst überschritten. Spätestens dann, wenn Menschen in ihrer Einsamkeit durch die Konzentration auf Social Bots ganz aus der Realität heraus rutschen, weil die Wirklichkeit immer anstrengender und konfliktbehafteter ist als die Phantasie.

Eva Weber-Guskar warnt, mit entsprechendem philosophischen und psychologischem Hintergrund, vor der Entwicklungen des Affective Computing. Gerade wegen der Verletzlichkeit und nicht umsonst intimen Bedeutung menschlicher Beziehungen. ELIZA, ein 1966 von Joseph Weizenbaum entwickeltes Computerprogramm, das nur vorgefertigte Antworten auf Schlüsselwörter abspulte, ist ein gutes Beispiel. Weizenbaums Sekretärin, die wusste, dass sie nur mit einem Computerprogramm diskutierte, weigerte sich trotzdem nach einiger Zeit, dies in der Gegenwart anderer Leute zu tun. Wenn schon Jugendliche nicht mehr in der Lage sind, einige Stunden auf TikTok und Instagram zu verzichten und Suchtverhalten entwickeln, kann man sich vorstellen, was mit Menschen passiert, die einen Social Bot auf ihrem Smartphone realen Menschen vorziehen. Der Tech-Industrie müssen an dieser Stelle sehr enge Grenzen gesetzt werden, die Vorgaben der EU reichen da lange nicht aus. Wir brauchen nicht noch mehr Zombies, die am Bildschirm klebend ihr wirkliches Leben abgeben. In diesem Sinne ist Eva Weber-Guskars Buch eindringliche Warnung vor Entwicklungen, die dem Zauberlehrling außer Kontrolle geraten. Nicht alles, was man meint tun zu können, sollte man tun.

Eva Weber-Guskar (* 1977 in München) ist eine deutsche Philosophin. Sie studierte Philosophie, Komparatistik und Politische Wissenschaften an der LMU München, der Sorbonne in Paris und der Humboldt-Universität zu Berlin und schloss 2001 mit einer Arbeit über das Konzept der Perspektive in Leibniz’ Monadologie zum M.A. ab. Nach der Promotion 2007 an der FU Berlin bei Peter Bieri zur „Klarheit der Gefühle. Was es heißt, Emotionen zu verstehen“ war sie von 2008 bis 2010 wissenschaftliche Mitarbeiterin am Lehrstuhl für Praktische Philosophie der Georg-August-Universität Göttingen. Seit Wintersemester 2019 hat sie eine Heisenbergprofessur an der Ruhr-Universität Bochum. Seit 2020 ist sie Gründungsmitglied der Redaktion von philpublica.de, ein online-Portal, das philosophische Ansichten einer breiteren Öffentlichkeit zugänglich macht. Für 2025 wurde ihr für «Gefühle der Zukunft. Wie wir mit emotionaler KI unser Leben verändern» der Tractatus-Preis zugesprochen.

Dieser Text basiert auf dem Artikel Eva Weber-Guskar aus der freien  Enzyklopädie Wikipedia  und steht unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung). In der Wikipedia ist eine Liste der Autoren verfügbar.

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.