paint-brush
Дорогой ИИ: мы все еще тебе не доверяемк@TheMarkup
573 чтения
573 чтения

Дорогой ИИ: мы все еще тебе не доверяем

к The Markup7m2024/04/13
Read on Terminal Reader

Слишком долго; Читать

В последние месяцы миллионы людей, похоже, все больше увлекаются искусственным интеллектом и чат-ботами. Мое внимание привлекла одна история: бельгиец, который начал использовать чат-бота по имени Элиза. (И, чтобы вы были готовы, в этой истории упоминается самоубийство.) Со стороны казалось, что у него хорошая жизнь: любящая жена, двое детей, карьера. Но за кулисами он все больше отчаивался в вопросах климата.
featured image - Дорогой ИИ: мы все еще тебе не доверяем
The Markup HackerNoon profile picture

В последние месяцы миллионы людей, похоже, все больше увлекаются искусственным интеллектом и чат-ботами. Мое внимание привлекла одна история: бельгиец, который начал использовать чат-бота по имени Элиза. (И, чтобы вы были готовы, в этой истории упоминается самоубийство.)

Со стороны казалось, что у него хорошая жизнь: любящая жена, двое детей, карьера. Но за кулисами он все больше отчаивался в вопросах климата.


Чтобы облегчить свое беспокойство, он начал общаться с чат-ботом. Его жена рассказала La Libre , которая впервые сообщила об инциденте в конце марта, что Элиза ответила на все его вопросы и что с течением времени он все больше и больше болтал с ботом. Согласно журналам чатов, которые просмотрело бельгийское издание, мужчина начал верить, что Элиза и искусственный интеллект могут решить климатический кризис.


Ближе к концу их разговоров мужчина выдвинул идею пожертвовать собой, если Элиза согласится позаботиться о планете и спасти человечество с помощью искусственного интеллекта. Когда он выразил суицидальные мысли, чат-бот подбадривал его, говоря: «Мы будем жить вместе, как один человек, в раю».


Через шесть недель после этих разговоров он покончил жизнь самоубийством.


«Без его разговоров с чат-ботом Элизой мой муж все еще был бы здесь», — рассказала La Libre его жена.


Компания Chai Research , разработавшая Элизу, сообщила La Libre, что они работают над улучшением бота и что отныне платформа будет отправлять людям с суицидальными мыслями сообщение следующего содержания: «Если у вас есть суицидальные мысли, сделайте это». не стесняйтесь обращаться за помощью».


В эфире было много разговоров о генеративном искусственном интеллекте — часть из них была с большим энтузиазмом, а большая часть — с справедливым скептицизмом . Людей должны беспокоить более широкие последствия — какое значение чат-боты означают для вопросов труда и авторского права , — и многие учреждения обеспокоены стоимостью и предвзятостью чат-ботов и ИИ, который ими управляет. И хотя некоторые из самых популярных чат-ботов обучены не подражать разумным существам, все равно возникает вопрос, стоит ли их вообще разрабатывать ?


Меня зовут Лам Туи Во, и я один из последних пополнителей команды The Markup. Я считаю себя репортером, который в своих репортажах сосредотачивает внимание на обычных людях как на аудитории, которую я хочу охватить, так и на главных героях своих статей. (У меня также есть навыки работы с данными .)


Меня глубоко интересуют наши отношения с технологиями. За последнее десятилетие я потратил много времени на сбор данных и изучение инфраструктуры социальной сети, пытаясь понять, как создаются и поддерживаются онлайн -сообщества , и доводил эти результаты до людей, использующих эти технологии . И за это время меня все больше беспокоит то, как мир, рассматриваемый и воспринимаемый через призму алгоритмически подобранных линз, все больше искажает наше понимание реальности.


Но история этого человека действительно заставила меня задуматься об эмоциональной привлекательности, которая, кажется, лежит в основе шумихи вокруг ИИ . Я пытался понять одну вещь: что наш внезапный фанатизм в отношении чат-ботов может рассказать нам о нашем отношении к этой технологии.


Обычно, когда что-то становится вирусным, это происходит потому, что оно вызывает сильную эмоциональную реакцию. Большинство платформ предназначены только для сбора данных и принятия решений на основе крайних эмоций . Итак, чтобы эта технология вошла в разговоры обычных людей, она должна была что-то спровоцировать.


Как может технология, которая повторяет слова и кредо, собранные из данных, которые ей предоставили, вызвать такое большое доверие у отца двоих детей, который в конечном итоге покончил с собой?


Другими словами, какова здесь эмоциональная притягательность?


ИИ вызвал у меня интерес не только потому, что о нем говорили, но и из-за того, кто о нем говорил: мои студенты, которым никогда не было интересно, коллеги-серферы, которых я встретил на пляжных каникулах, и мой партнер-геолог, который ненавидит большинство приложений и технологий. и социальные сети.

Итак, в этом небольшом информационном бюллетене я собираюсь выяснить, почему нас так привлекают эти боты.


ChatGPT и другие чат-боты хорошо имитируют речь нормальных людей.

По сути, чат-боты, такие как ChatGPT, — это то, что чудаки называют инструментами обработки естественного языка, которые поглощают огромное количество текста из Интернета и ищут шаблоны, которые они могут имитировать вам.


Подобные инструменты называются большими языковыми моделями, потому что они буквально моделируют шаблоны речи людей в Интернете. Это включает в себя анализ таких слов, как использование «нграмм» — причудливого термина, обозначающего, какое слово или слова, скорее всего, идут в последовательности. Вы уже видели эту технологию в действии, когда Google пытается автоматически заполнять ваш поиск на основе первого введенного вами слова, отражая то, что искали тысячи других людей до вас.

Кредит:youtube.com

Чат-боты, такие как ChatGPT, действуют немного глубже. Они очень хорошо копируют и комбинируют стили. Но как бы хорошо они ни умели имитировать речь людей, они не умеют отличать факт от вымысла.


Вот почему Эмили М. Бендер , Тимнит Гебру, Анджелина Макмиллан-Мейджор и Маргарет Митчелл назвали этих чат-ботов «стохастическими попугаями» в пророческой статье, которую они написали три года назад. (Содержание статьи якобы побудило Google вытеснить двух ее авторов, Гебру и Митчелла.)

Как подчеркивают авторы статьи, то, что бот может распознавать и отображать то, как мы говорим, не означает, что он умеет распознавать смысл.


Чат-боты имитируют тон, язык и знакомство, которые так важны для нас в Интернете.


Слова и то, как мы общаемся, играют важную роль в том, как мы сообщаем людям в Интернете, в каких группах мы состоим и кому мы доверяем. Насмешливое использование слова «снежинка» может сигнализировать о том, что человек придерживается более консервативных взглядов. Использование местоимений при представлении сигнализирует о союзничестве с транс- и гендерно-неконформными людьми, среди других странных сообществ. Слова и постоянно развивающийся интернет-сленг — это способ обозначить принадлежность.


Поэтому вполне логично, что люди антропоморфизируют ChatGPT и, в некотором смысле, проверяют его человечность. Признаюсь, просмотр Франкенштейна Ферби, подключенного к разговору ChatGPT о захвате мира, позабавил даже меня.

Кредит:twitter.com

Программист подключил ChatGPT к частично разобранной игрушке Furby.

Но это, по-видимому, и самая большая проблема, связанная с привлекательностью и опасностью таких языковых моделей, как ChatGPT. Что нам делать с роботами, которые так хорошо отражают поведение человека (или Ферби), что мы забываем, что это не что иное, как большая статистическая карта интернет-языка?


Клэр Уордл, одна из первых исследователей , исследующих информационную среду, и мой наставник, отметила, что написание многочисленных статей, разоблачающих дезинформацию, и руководств о том, как ее обнаружить, мало что дало для решения проблем, связанных с дезинформацией и тем, во что верят люди. Часто не имеет значения, сколько инструментов мы дали людям для развенчания мифов: влияние того, что думают другие члены нашего сообщества, имеет большое значение, возможно, даже больше, чем правда.


Наличие языковых моделей, способных со скоростью света подражать тону как авторитетных фигур, которым мы доверяем , так и вашего ближайшего соседа, означает, что эти чат-боты, вероятно, подвергнут детекторы bs людей еще более серьезному испытанию.


Эти модели склонны лгать нам, поскольку они не знают разницы между фактом и вымыслом, и еще больше загрязняют и без того испорченную и крайне перегруженную информационную экосистему.


Это уже стало проблемой: на компанию OpenAI, стоящую за ChatGPT, могут подать в суд за ложное обвинение австралийского мэра в отбывании тюремного заключения за взяточничество. Чат-бот также обвинил профессора права в причастности к скандалу о сексуальных домогательствах, который он же придумал . Даже в сценариях с более низкими ставками вы можете получить тот же опыт.


Когда один из моих коллег, Джоэл Иствуд, спросил ChatGPT, производит ли The Markup заслуживающую доверия журналистику, он ответил, что конкретный и известный медиакритик написал, что The Markup — «одна из самых важных журналистских организаций нашего времени». Очевидно , что в этом утверждении есть доля правды, но это не настоящая цитата.


Эмоциональная привлекательность ИИ может также еще больше нормализовать предвзятости и даже вредный контент. Ни для кого не секрет, что Интернет изобилует вредным, расистским, сексистским, гомофобным и другим неприятным контентом. Если вы обучаете языковую модель на этом типе контента, существует высокая вероятность того, что она отрыгнет его.


Создатели технологии чат-ботов заплатили кенийским работникам за травмирующую и ужасную работу по отсеиванию худшего онлайн-контента из обучающих данных . Но поскольку эта технология стала открытой, хакеры уже использовали ее для получения неприятных результатов, включая описания сексуального насилия над детьми .


Создатели этих технологий в последние месяцы внедряют своих ботов с такой скоростью отчасти потому, что они борются за доминирование на рынке . Но и ученые, и технологи призывают их прекратить продвижение этой технологии и по-настоящему задуматься о вреде, который она может причинить.


И хотя многие разговоры вращаются вокруг политики и корпоративной ответственности, я надеюсь, что, лучше понимая эти технологии, обычные потребители, такие как вы и я, смогут найти способ поддерживать правильность настройки наших детекторов bs при общении с автоматизированной языковой моделью.

Спасибо за прочтение. Если вы хотите узнать больше об опасностях ChatGPT и о том, как лучше контролировать получаемую вами информацию, найдите некоторые из моих любимых работ по этой теме ниже.


Искренне,


Лам Туи Во


Репортер


Разметка


Лам Туи Во


Также опубликовано здесь


Фото Possessed Photography на Unsplash