Im Jahr 2017 wurde ein Roboter seiner Arbeit überdrüssig und beging in einem Springbrunnen Selbstmord . Dann, im Jahr 2022, erklärte ein Google-Ingenieur nach der Interaktion mit LaMDA, dem Chatbot des Unternehmens, dass die Technologie bewusst geworden sei. Kürzlich wurde berichtet, dass im Jahr 2021 ein Tesla-Softwareentwickler von einem unkontrollierten Roboter angegriffen wurde. Dabei ist die Angst, dass Maschinen Arbeitsplätze stehlen könnten, oder die klassische Fiktion, dass Maschinen die Welt erobern werden, noch nicht berücksichtigt.
Obwohl wir Maschinen in Blade Runner nicht als Replikanten sehen, neigen Menschen dazu, Nicht-Menschen menschliche Qualitäten zu vermenschlichen oder ihnen menschliche Qualitäten zuzuschreiben [1]. Es ist eine Möglichkeit, ein Szenario zu analysieren und in unser Verständnis einzubeziehen: Wir geben unseren Booten und Tornados Namen, wir sprechen mit unseren Haustieren und sagen, dass das angenehme Gefühl, das sie uns geben, Liebe ist. Es ist einfacher, ein System zu verstehen, das in der ersten Person sagt: „Es tut mir leid, ich weiß nicht, wie ich Ihnen helfen kann“, als zu akzeptieren, dass das Modell, mit dem wir sprechen, möglicherweise nichts weiter als ein stochastischer Papagei ist. [2]
Die anthropomorphisierte Interaktion bezieht sich daher auf das Phänomen der „Illusion der Handlungsfähigkeit“, einem psychologischen Konzept, das sich auf die Tendenz bezieht, autonomes Handeln oder Kontrolle Einheiten zuzuschreiben, die in Wirklichkeit nicht über solche Fähigkeiten verfügen. Mit anderen Worten handelt es sich um die irrige Annahme, dass ein Akteur (sei es eine Person, ein Tier oder eine Maschine) aus freien Stücken handelt, obwohl seine Handlungen in Wirklichkeit von externen Faktoren (im rechnerischen Fall der Entwicklung) bestimmt werden Regeln).
In Situationen, in denen KI-Systeme fehlerhafte Entscheidungen oder Handlungen treffen, besteht die Tendenz, diese Fehler als „Entscheidungen“ der Entität und nicht als Ergebnisse ihrer Programmierung und Gestaltung durch Menschen zu betrachten, nicht zuletzt, weil berichtet wurde, dass die egoistische Voreingenommenheit eines Auch bei Mensch-Maschine-Interaktionen lässt sich beobachten, dass Menschen die Ursache und Verantwortung für ein negatives Ergebnis nicht auf sich selbst zurückführen können [3].
Dieser Wahrnehmungswandel tendiert in gefährlicher Weise dazu, menschliche Schöpfer, Betreiber und Regulierungsbehörden von ihrer Verantwortung zu entbinden, und zwar nicht im Rahmen einer gerichtlichen Regelung (die eine Lücke bleibt und nicht nur aufgrund der Komplexität des Themas, sondern auch wegen der künstlichen Intelligenz Herausforderungen bei der Umsetzung mit sich bringt). Intelligenz wird oft nur als maschinelles Lernen verstanden und die Prämisse ist nicht richtig strukturiert. Brauchen wir eine strengere Regulierung? Müssen wir mehr Risiken eingehen?), sondern auf einer techno-ethischen Frage.
Nehmen wir ein extremeres, aber wahres Ereignis aus dem Jahr 2023: Ein Benutzer, der sentimental an einen Chatbot gebunden war, beging Selbstmord, nachdem er seine Gedanken mit dem Bot geteilt und die Antwort „Verwandeln Sie Ihre Worte in Taten“ sowie andere Nachrichten erhalten hatte . Würde eine gerichtliche Verurteilung der Entwickler dieses Produkts dazu führen, dass sich ein anderer Benutzer gegenüber einem anderen Chatbot genauso verhält, vorausgesetzt, dieser wurde deaktiviert, wenn der Inhalt der Nachrichten und die Zuneigung gleich sind? Es ist nicht nur eine rechtliche Situation. Es handelt sich um eine soziale, psychologische und technologische Bildungsfrage.
Das Konzept der Humanisierung von KI ist nicht eindeutig, und eine große Herausforderung besteht im Fehlen eines allgemein akzeptierten Ansatzes, der die besten Praktiken für die Gestaltung und Nutzung von KI vorschreibt. Während eine Schnittstelle, die menschliches Verhalten nachahmt, zugänglicher sein kann, gibt es keine klaren Grenzen, die definieren, was in einem Produkt getan werden sollte und was nicht. Letztendlich wird die Ablehnung durch den Benutzer zum einzigen limitierenden Faktor, obwohl potenzielle Schäden auftreten können, bevor die Benutzeroberfläche zu ungewohnt wird.
Eine benutzerfreundliche Oberfläche bedeutet eine Reduzierung der Komplexität des dahinter stehenden Systems. Doch solange es keine Aufklärung über die Funktionsweise von Systemen gibt, wird der Benutzer nicht in der Lage sein, kritisch darüber nachzudenken, was er nutzt. Das bedeutet nicht, dass jeder Programmierer werden sollte, aber zumindest verstehen sollte, dass die Ausgabe auf seinem Bildschirm aus einem Pfad der Datenerfassung, Modellentwicklung und des Designs stammt. Es gibt eine Reihe von Regeln. Da die Humanisierung für uns Benutzer ein fast unbewusster Akt ist, sollten wir sie mit ein wenig Wissen zumindest einschränken.
Und es ist nicht einfach, Anthropomorphismus zu vermeiden, wenn man über KI kommuniziert, insbesondere wenn man die Standardsprache der Branche, der Medien und des Alltags selbst berücksichtigt: maschinelles Lernen , Computer Vision , generative Modellierung . Die Wahrnehmung von Künstlicher Intelligenz kann durch den spezifischen Sprachgebrauch beeinflusst werden.
Wie KI präsentiert wird, hat „konkrete Auswirkungen“, insbesondere auf die Art und Weise, wie Menschen Verantwortung und Anerkennung für die geleistete Arbeit verteilen. Wenn es lediglich als Werkzeug in den Händen von Menschen beschrieben wird, tendiert es dazu, bestimmten Personen größere Verantwortung und Verdienste zuzuschreiben – beispielsweise der Person, die den Code bedient. Wenn KI hingegen durch menschliche Eigenschaften gekennzeichnet ist – etwa die Fähigkeit, etwas zu erschaffen –, dann wird davon ausgegangen, dass sie größere Anerkennung und Verantwortung verdient, wie ein Agent mit unabhängigem Denken und geistiger Leistungsfähigkeit. [4] Wenn wir Nachrichten über Vorfälle oder atypische Ereignisse im Zusammenhang mit künstlicher Intelligenz lesen, stoßen wir häufig auf diese Begriffe.
Außerdem bedeutet die Zuschreibung von „Intelligenz“, dass einem Roboter mit autonomem Verhalten mehr Schuld oder Anerkennung für das Ergebnis einer Aufgabe zugeschrieben wurde als einem nicht autonomen Roboter, selbst wenn das autonome Verhalten nicht direkt zur Aufgabe beitrug. [3] Diese Studien legen daher nahe, dass Menschen einem Computer oder Roboter Verantwortung auf der Grundlage der anthropomorphisierten geistigen Fähigkeiten der Maschinen übertragen können.
Die Humanisierung von Maschinen verschiebt nicht nur die Unterscheidung zwischen der Verantwortung des Geräts und der seines menschlichen Schöpfers, sondern die Zuschreibung von Absichten oder Bewusstsein an eine Maschine verwischt gleichzeitig die Grenzen dessen, was wahre Autonomie und wahres Bewusstsein ausmacht.
Die Schwierigkeit, einer Maschine Menschlichkeit und Empfindungsvermögen zuzuschreiben, liegt jedoch nicht nur darin, dass Künstliche Intelligenz dazu nicht in der Lage ist, und wenn sie beispielsweise sagt, dass sie Angst verspürt, ahmt sie in Wirklichkeit das Gelernte nach, indem sie es wiederholt dieser Satz ohne irgendeine Essenz dahinter. Auch heute noch gibt es eine hitzige Debatte darüber, wie Bewusstsein zu definieren ist. Unser Bewusstsein als Mensch.
Unser Verständnis darüber, wie das Gehirn funktioniert, ist noch recht begrenzt. Wir verfügen über umfangreiche Kenntnisse über die grundlegende Chemie: die Art und Weise, wie Neuronen aktiviert werden, und die Übertragung chemischer Signale. Wir haben auch ein gutes Verständnis für die Hauptfunktionen verschiedener Gehirnbereiche. Allerdings wissen wir nur sehr wenig darüber, wie diese Funktionen uns orchestrieren. In gewisser Weise haben theoretische Spekulationen detaillierte neurophysiologische Studien darüber, was im Gehirn passiert, ersetzt. Aber was ist darüber hinaus? [5] Warum haben wir diese magische Vorstellung von uns selbst? Warum wirkt sich dieselbe Erfahrung unterschiedlich auf uns aus? Spüren wir alle das gleiche Gefühl auf die gleiche Weise?
Wenn das Menschsein etwas ist, das wir zwar erleben, von dem wir aber noch nicht vollständig verstehen, was es als Ganzes ist, wie können wir dann sagen, dass auch eine Maschine diese Komplexität erfährt? Indem wir Maschinen zu menschlichen Fähigkeiten erheben, verringern wir den besonderen Charakter des Menschen.
Für den Jabuti-Preis 2023, eine der höchsten Auszeichnungen in der brasilianischen Literatur, hat die brasilianische Buchkammer (CBL) beschlossen, Frankenstein, eine Ausgabe des Klassikers von 1818, aus der Kategorie „Beste Illustration“ auszuschließen, da der Künstler angab, bei der Entwicklung KI-Lösungen verwendet zu haben die Kunst. Ironischerweise befasst sich eines der mit dem Preis ausgezeichneten Bücher in der Kategorie Sachbuch mit den Auswirkungen künstlicher Intelligenz auf den Menschen („Humanamente digital: Inteligência Artificial Centrada No Humano“, etwa „Humanly Digital: Human-Centered Artificial Intelligence“). auf Englisch, von Cassio Pantaleone). Einerseits erkennen wir die Verflechtung der menschlichen Erfahrung mit Maschinen. Andererseits ist es uns immer noch nicht gelungen, zu validieren, ob ein als Kunstwerkzeug verwendeter Algorithmus als gültige Schaffensmethode angesehen werden kann oder nicht, obwohl der künstlerische Prozess, selbst wenn er durch maschinelles Lernen durchgeführt wird, die Aktion erfordert ( und Wertschätzung für Schönheit und Ästhetik) eines Menschen.
Maschinen stehlen keine Arbeitsplätze, wenn sie nicht wahllos dafür eingesetzt werden. Maschinen töten nicht, es sei denn, sie werden als Waffen eingesetzt. Auch leiden Maschinen nicht und zeigen auch kein Mitgefühl, obwohl ihre Texte dies nachahmen, da sie mit Daten von uns trainiert wurden, voller Gefühle, die nur wir wirklich fühlen können. Sie sind fast die moderne Version des Golem-Mythos. Wie können Menschen mit nichtmenschlicher Intelligenz umgehen? Anthropomorphismus ist eine gültige Antwort, aber nicht die einzige. Und wenn es eingesetzt wird, kann es uns nicht von der eigentlichen Verantwortung für seine Konsequenzen entbinden, ob angemessen oder nicht: uns.
Künstliche Intelligenz ist letztlich ein Spiegel unserer selbst. Und wenn wir Angst davor haben, wohin es führt, dann deshalb, weil wir Angst vor dem Weg haben, den wir schaffen werden.
[1] Epley, N., Waytz, A. & Cacioppo, JT (2007). Über das Sehen des Menschen: Eine Drei-Faktoren-Theorie des Anthropomorphismus. Psychological Review, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864
[2] Shneiderman, B. & Muller, M. (2023) . Über KI-Antropomorphismus
[3] Kawai, Y., Miyake, T., Park, J. et al. Auf Anthropomorphismus basierende Kausal- und Verantwortungszuschreibungen für Roboter. Sci Rep 13, 12234 (2023). https://doi.org/10.1038/s41598-023-39435-5
[4] Epstein, Z., Levine, S., Rand, DG, & Rahwan, I. (2020). Wer erhält Anerkennung für KI-generierte Kunst? In iScience (Band 23, Ausgabe 9, S. 101515). Elsevier BV. https://doi.org/10.1016/j.isci.2020.101515
[5] Goff, P. (2023). Das Verständnis des Bewusstseins geht über die Erforschung der Gehirnchemie hinaus. Wissenschaftlicher Amerikaner
Die folgende Eingabeaufforderung generierte das in diesem Artikel verwendete Bild: „Erstellen Sie einen Mann, der in einen Spiegel schaut, aber der Spiegel hat die Form eines Roboters.“ Sofia × DALL·E