paint-brush
Liebe KI: Wir vertrauen dir immer noch nichtvon@TheMarkup
573 Lesungen
573 Lesungen

Liebe KI: Wir vertrauen dir immer noch nicht

von The Markup7m2024/04/13
Read on Terminal Reader

Zu lang; Lesen

In den letzten Monaten scheinen Millionen von Menschen zunehmend von KI und Chatbots begeistert zu sein. Eine besondere Geschichte ist mir aufgefallen: ein belgischer Mann, der anfing, einen Chatbot namens Eliza zu verwenden. (Und damit Sie vorbereitet sind: In dieser Geschichte wird Selbstmord erwähnt.) Von außen betrachtet sah es so aus, als hätte er ein gutes Leben: eine liebevolle Frau, zwei Kinder, eine Karriere. Aber hinter den Kulissen wurde er immer verzweifelter wegen der Klimaprobleme.
featured image - Liebe KI: Wir vertrauen dir immer noch nicht
The Markup HackerNoon profile picture

In den letzten Monaten scheinen Millionen von Menschen zunehmend von KI und Chatbots begeistert zu sein. Dabei ist mir eine Geschichte besonders aufgefallen: ein Belgier, der anfing, einen Chatbot namens Eliza zu verwenden. (Und damit Sie sich darauf einstellen können: In dieser Geschichte wird tatsächlich von Selbstmord gesprochen.)

Von außen betrachtet schien er ein gutes Leben zu führen: eine liebevolle Frau, zwei Kinder, eine Karriere. Doch hinter den Kulissen wurde er angesichts der Klimaprobleme immer verzweifelter.


Um seine Angst zu lindern, begann er, mit einem Chatbot zu sprechen. Seine Frau erzählte La Libre , die Ende März erstmals über den Vorfall berichtete, dass Eliza alle seine Fragen beantwortete und dass er mit der Zeit immer häufiger mit dem Bot chattete. Chatprotokollen zufolge, die das belgische Medium überprüfte, begann der Mann zu glauben, dass Eliza und KI die Klimakrise lösen könnten.


Gegen Ende ihres Gesprächs brachte der Mann die Idee auf, sich selbst zu opfern, wenn Eliza zustimmte, sich um den Planeten zu kümmern und die Menschheit durch künstliche Intelligenz zu retten. Als er Selbstmordgedanken äußerte, ermutigte ihn der Chatbot mit den Worten: „Wir werden zusammen, als eine Person, im Paradies leben.“


Sechs Wochen nach Beginn dieser Gespräche beging er Selbstmord.


„Ohne seine Gespräche mit dem Chatbot Eliza wäre mein Mann noch hier“, sagte seine Frau gegenüber La Libre.


Das Unternehmen, das Eliza entwickelt hat, Chai Research , teilte La Libre mit, dass es an der Verbesserung des Bots arbeite und dass die Plattform von nun an Personen mit Selbstmordgedanken eine Nachricht mit dem Inhalt senden werde: „Wenn Sie Selbstmordgedanken haben, zögern Sie nicht, Hilfe zu suchen.“


Im Äther wird viel über generative KI geredet – teilweise sehr enthusiastisch, teilweise aber auch zu Recht skeptisch . Die Leute sollten sich über die größeren Auswirkungen Gedanken machen – was Chatbots für Arbeits- und Urheberrechtsfragen bedeuten – und viele Institutionen sind besorgt über die Kosten und Voreingenommenheit von Chatbots und der KI, die sie antreibt. Und obwohl einige der beliebtesten Chatbots darauf trainiert wurden, keine fühlenden Wesen zu imitieren, stellt sich dennoch die Frage, ob sie überhaupt entwickelt werden sollten .


Mein Name ist Lam Thuy Vo und ich bin einer der jüngsten Neuzugänge im Team von The Markup. Ich betrachte mich als Reporterin, die in ihrer Berichterstattung ganz normale Menschen in den Mittelpunkt stellt, sowohl als Publikum, das ich erreichen möchte, als auch als Protagonisten meiner Geschichten. (Zufällig verfüge ich auch über Datenkenntnisse .)


Ich interessiere mich sehr für unsere Beziehung zur Technologie. Ich habe im letzten Jahrzehnt viel Zeit damit verbracht, Daten über die Infrastruktur des sozialen Netzes zu sammeln und sie zu untersuchen. Ich habe versucht zu verstehen, wie Online- Communitys aufgebaut und gepflegt werden, und diese Erkenntnisse den Menschen zu vermitteln, die diese Technologien nutzen . Und im Laufe dieser Zeit bin ich immer besorgter darüber geworden, wie eine Welt, die durch eine algorithmisch kuratierte Linse gesehen und vermittelt wird, unser Verständnis der Realität zunehmend verzerrt hat.


Aber die Geschichte dieses Mannes hat mich wirklich zum Nachdenken über die emotionale Anziehungskraft gebracht, die dem Hype um KI zugrunde zu liegen scheint. Ich versuche zu verstehen, was unser plötzlicher Fanatismus für Chatbots uns über unsere Beziehung zu dieser Technologie sagen kann.


Wenn etwas viral geht, liegt das normalerweise daran, dass es starke emotionale Reaktionen hervorgerufen hat. Die meisten Plattformen sind nur darauf ausgelegt, Daten zu sammeln und Entscheidungen auf der Grundlage extremer Emotionen zu treffen . Damit diese Technologie also in Gespräche unter normalen Menschen einfließt, muss sie etwas ausgelöst haben.


Wie kann eine Technologie, die aus den ihr zugeführten Daten selbst zusammengebastelte Worte und Glaubensbekenntnisse wiederholt, bei einem Vater zweier Kinder, der sich schließlich das Leben nahm, so viel Vertrauen aufbauen?


Mit anderen Worten: Was ist hier die emotionale Anziehungskraft?


KI hat mein Interesse nicht nur geweckt, weil darüber gesprochen wurde, sondern auch wegen der Leute, die darüber sprachen: meine Studenten, die sich nie dafür interessiert hatten, andere Surfer, die ich im Strandurlaub kennengelernt habe, und mein Partner, der Geologe ist und die meisten Apps, Technologien und sozialen Medien verabscheut.

In diesem kleinen Newsletter werde ich also untersuchen, warum wir uns so zu diesen Bots hingezogen fühlen.


ChatGPT und andere Chatbots können die Sprechweise normaler Menschen gut imitieren

Im Wesentlichen sind Chatbots wie ChatGPT das, was Fachleute als Tools zur Verarbeitung natürlicher Sprache bezeichnen, die riesige Mengen an Text aus dem Internet aufnehmen und nach Mustern suchen, die sie Ihnen nachahmen können.


Diese Art von Tools werden als große Sprachmodelle bezeichnet, da sie im wahrsten Sinne des Wortes Muster nachbilden, die der Art und Weise entsprechen, wie Leute im Internet sprechen. Dazu gehört die Analyse von Wörtern wie beispielsweise die Verwendung von „N-Grammen“, ein schicker Begriff, der im Grunde darauf abzielt, welches Wort oder welche Wörter am wahrscheinlichsten in einer bestimmten Reihenfolge vorkommen. Sie haben diese Technologie bereits in Aktion gesehen, wenn Google versucht, Ihre Suchanfragen basierend auf dem ersten Wort, das Sie eingeben, automatisch zu vervollständigen und Ihnen das vor Augen zu führen, wonach Tausende andere vor Ihnen gesucht haben.

Bildnachweis:youtube.com

Chatbots wie ChatGPT gehen etwas tiefer. Sie sind sehr gut darin, Stile zu kopieren und zu kombinieren. Aber so gut sie auch darin sein mögen, die Sprechweise von Menschen zu imitieren, so gut sind sie doch nicht darin, zwischen Fakten und Fiktion zu unterscheiden.


Deshalb bezeichneten Emily M. Bender , Timnit Gebru, Angelina McMillan-Major und Margaret Mitchell diese Chatbots in einem vorausschauenden Artikel, den sie vor drei Jahren verfassten, als „stochastische Papageien“. (Der Inhalt des Artikels veranlasste Google angeblich dazu, zwei seiner Autorinnen, Gebru und Mitchell, aus dem Unternehmen zu drängen.)

Die Autoren des Artikels betonen, dass ein Bot, nur weil er unsere Sprechweise erkennen und nachvollziehen kann, noch lange nicht weiß, wie er die Bedeutung unserer Worte erkennen kann.


Chatbots imitieren den Ton, die Sprache und die Vertrautheit, die uns im Internet so wichtig sind


Worte und unsere Art zu kommunizieren sind ein wichtiger Teil dessen, wie wir Leuten online signalisieren, zu welchen Gruppen wir gehören und wem wir vertrauen. Die abfällige Verwendung des Wortes „Schneeflocke“ kann signalisieren, dass eine Person eher konservativ veranlagt ist. Die Verwendung von Pronomen in der eigenen Vorstellung signalisiert Verbundenheit mit Trans- und geschlechtsunkonformen Menschen sowie anderen queeren Communities. Worte und der sich ständig weiterentwickelnde Internet-Slang sind eine Möglichkeit, Zugehörigkeit auszudrücken.


Es macht also Sinn, dass Leute ChatGPT vermenschlichen und in gewisser Weise seine Menschlichkeit testen. Ich gebe zu, dass es sogar mich amüsierte, einem an ChatGPT angeschlossenen Frankenstein-Furby dabei zuzuhören, wie er über die Übernahme der Welt spricht.

Bildnachweis: twitter.com

Ein Programmierer hat ChatGPT an ein teilweise zerlegtes Furby-Spielzeug angeschlossen.

Aber genau darin liegt auch die größte Herausforderung, die mit Sprachmodellen wie ChatGPT verbunden ist: Sie sind verlockend und gefährlich. Was machen wir mit Robotern, die menschliches (oder Furby-)Verhalten so gut widerspiegeln, dass wir vergessen, dass es sich lediglich um eine große statistische Karte der Internetsprache handelt?


Claire Wardle, eine der ersten Forscherinnen, die sich mit Informationsumgebungen beschäftigte und eine meiner Mentorinnen, erwähnte, dass das Verfassen zahlreicher Artikel, die Falschinformationen entlarven, und Handbücher, wie man sie erkennt, wenig dazu beigetragen hat, die Probleme rund um Falschinformationen und die Glaubenssätze der Menschen zu lösen. Oft spielt es keine Rolle, wie viele Werkzeuge wir den Menschen gegeben haben, um Mythen zu entlarven – der Einfluss dessen, was andere in unserer Gemeinschaft denken, ist sehr viel wichtiger, vielleicht sogar wichtiger als die Wahrheit.


Sprachmodelle zu haben, die in der Lage sind, den Ton sowohl der Autoritätspersonen, denen wir vertrauen , als auch des Tons Ihres Nachbarn in Lichtgeschwindigkeit nachzuahmen, bedeutet, dass diese Chatbots die Wahrhaftigkeit von Unsinnsdetektoren der Leute wahrscheinlich noch stärker auf die Probe stellen werden.


Diese Modelle neigen dazu, uns zu belügen – weil sie den Unterschied zwischen Fakten und Fiktion nicht kennen – und verschmutzen ein bereits verseuchtes und erschreckend überwältigendes Informationsökosystem noch weiter.


Dies ist bereits zu einem Problem geworden: Das Unternehmen hinter ChatGPT, OpenAI, könnte verklagt werden, weil es einen australischen Bürgermeister fälschlicherweise beschuldigt hat, wegen Bestechung eine Gefängnisstrafe zu verbüßen . Der Chatbot hat außerdem einen Juraprofessor beschuldigt, an einem von ihm erfundenen Skandal um sexuelles Fehlverhalten beteiligt gewesen zu sein . Selbst in Szenarien, in denen es weniger riskant erscheinen sollte, kann man die gleiche Erfahrung machen.


Als einer meiner Kollegen, Joel Eastwood, ChatGPT fragte, ob The Markup vertrauenswürdigen Journalismus produziere, hieß es, ein bekannter Medienkritiker habe The Markup als „eine der wichtigsten Journalistenorganisationen unserer Zeit“ bezeichnet. An dieser Aussage ist offensichtlich etwas Wahres dran – aber es handelt sich nicht um ein echtes Zitat.


Die emotionale Anziehungskraft der KI könnte zudem dazu führen, dass Vorurteile und sogar schädliche Inhalte weiter normalisiert werden. Es ist kein Geheimnis, dass es im Internet von schädlichen, rassistischen, sexistischen, homophoben und anderweitig problematischen Inhalten wimmelt. Wenn Sie ein Sprachmodell mit dieser Art von Inhalten trainieren, ist die Wahrscheinlichkeit hoch, dass es diese wiederkäut.


Die Entwickler der Chatbot-Technologie haben kenianische Arbeiter dafür bezahlt, die traumatisierende und grausame Arbeit zu übernehmen, einige der schlimmsten Online-Inhalte aus den Trainingsdaten auszusortieren. Doch obwohl die Technologie nun öffentlich zugänglich ist, haben Hacker sie bereits dazu benutzt, um bedenkliche Ergebnisse zu erzielen, darunter Beschreibungen des sexuellen Missbrauchs von Kindern .


Die Hersteller dieser Technologien haben ihre Bots in den letzten Monaten unter anderem deshalb so schnell auf den Markt gebracht, weil sie um die Marktbeherrschung kämpfen . Doch sowohl Wissenschaftler als auch Techniker fordern sie auf, von ihrer Suche nach dieser Technologie Abstand zu nehmen und sich ernsthaft mit den möglichen Schäden auseinanderzusetzen.


Und während sich viele Gespräche um Politik und Unternehmensverantwortung drehen, hoffe ich, dass normale Verbraucher wie Sie und ich durch ein besseres Verständnis dieser Technologien einen Weg finden können, unsere BS-Detektoren beim Chatten mit einem automatisierten Sprachmodell scharf zu halten.

Vielen Dank fürs Lesen. Wenn Sie mehr über die Gefahren von ChatGPT erfahren und wissen möchten, wie Sie Ihre eigene Informationsaufnahme besser kontrollieren können, finden Sie unten einige meiner Lieblingsarbeiten zu diesem Thema.


Aufrichtig,


Lam Thuy Vo


Reporter


Das Markup


Von Lam Thuy Vo


Auch hier erschienen


Foto von Possessed Photography auf Unsplash