paint-brush
Обязаны ли мы морально принять ИИ?к@corhymel
1,139 чтения
1,139 чтения

Обязаны ли мы морально принять ИИ?

к Cory Hymel8m2024/04/20
Read on Terminal Reader

Слишком долго; Читать

Фрэнк Чен (второй слева) на панели искусственного интеллекта, на которой был задан вопрос. Кредиты: Гигстер
featured image - Обязаны ли мы морально принять ИИ?
Cory Hymel HackerNoon profile picture
0-item

Пять лет назад Фрэнк Чен задал вопрос, который с тех пор не дает мне покоя каждый день. Вопрос заключался в следующем: «Если беспилотные автомобили на 51% безопаснее, разве мы не морально обязаны их принять?». Я задавал этот вопрос массу раз за последние пять лет, и обычно рефлекторная реакция приводит к интересным дебатам. Что делает этот вопрос таким интересным, так это острие ножа: оно не на 99% безопаснее, не на 70% безопаснее, а всего лишь на 51%.


Чтобы поместить это в контекст. Национальная администрация безопасности дорожного движения сообщила , что в 2022 году в результате дорожно-транспортных происшествий погибло около 42 795 человек. 50% от 42795 — это 21398 человек, а 51% — это 21825 человек.


Это означает, что если беспилотные автомобили станут на 51% безопаснее, их использование спасет жизни 427 человек каждый год. Это примерно 1,5 самолета Боинг 777, заполненного пассажирами.


Является ли спасение 427 жизней моральным аргументом в пользу усыновления?


За те пять лет, что я делился этим вопросом, ответы никогда не были простыми. Они всегда полны вопросов «а что, если». Но даже если ответы не ясны, я думаю, что этот вопрос невероятно важен. Частично потому, что это открывает более широкую — и не менее важную — дискуссию о моральном императиве внедрения ИИ во многие аспекты нашей жизни и работы. Потому что, в конце концов, отказ от технологий, которые могли бы спасти жизни, может быть столь же этически проблематичным, как и слишком поспешное внедрение технологий.


Моральный императив внедрения ИИ


Я всегда считал, что дебаты вокруг беспилотных транспортных средств являются идеальным микрокосмом для более широкого обсуждения ИИ. Если мы обладаем технологией, которая статистически безопаснее транспортных средств, управляемых человеком, разве моральный выбор не очевиден?


Учти это: исследования показали, что водители-люди чаще попадают в аварии со значительным риском травм, чем беспилотные автомобили (с искусственным интеллектом). В частности, водители-люди стали причиной 0,24 травм на миллион миль (IPMM) и 0,01 смертельных исходов на миллион миль (FPMM), в то время как беспилотные автомобили стали причиной 0,06 IPMM и 0 FPMM.


И помните, эти цифры — не просто статистика. Они представляют собой реальные жизни, которые можно было бы спасти, используя технологию искусственного интеллекта.


Но зачем останавливаться на автономных транспортных средствах? Потенциал искусственного интеллекта для повышения безопасности, эффективности и точности распространяется на такие области, как медицина, общественное здравоохранение, безопасность пищевых продуктов, сельское хозяйство, кибербезопасность, предотвращение преступности и военная наука. Если ИИ может диагностировать болезни с большей точностью, чем врачи-люди, предсказывать неурожаи до того, как они опустошат запасы продовольствия, или предотвращать кибератаки до того, как они повредят наши данные, разве у нас нет морального обязательства также использовать эти технологии?


Конечно, это драматические примеры, но аргумент выходит за рамки сценариев жизни и смерти. Способность ИИ улучшать качество нашей повседневной жизни не менее привлекательна. Упрощая повседневные задачи или делая информацию и услуги более доступными и справедливыми, ИИ может положить конец рутинной работе и улучшить качество нашей повседневной жизни. Моральный императив внедрения ИИ заключается не только в предотвращении вреда или смерти; речь идет о том, обязаны ли мы внести свой вклад в благосостояние людей, если можем.

Дилемма выбора и безопасности


Итак, выбираем ли мы транспортные средства, управляемые человеком (или процессы, управляемые человеком), зная, что они менее безопасны и эффективны, чем их аналоги с искусственным интеллектом? Просто потому, что они более человечны?


Столкнувшись с выбором между системами, управляемыми человеком, и альтернативами, улучшенными искусственным интеллектом, я считаю, что решение, очевидно, должно зависеть от безопасности и эффективности, а не от приверженности какой-то туманной идее о том, что является «человечным», а что нет.


Использование ИИ не означает игнорирования человеческой ценности или вклада; скорее, речь идет о признании того, что человеческое по своей сути не превосходит — и, честно говоря, часто значительно уступает в определенных контекстах.


Пожалуйста, не доставай вилы, я не присоединяюсь к команде роботов-повелителей. Я понимаю беспокойство, которое испытывают многие люди по поводу разрушения, которое ИИ уже вызывает в их работе, и социальных изменений, которые, несомненно, нас ждут. Мне просто интересно, смогут ли эффективность ИИ и улучшение качества жизни в долгосрочной перспективе перевесить последствия этих потрясений.


Отчасти наше нежелание внедрять ИИ вызвано когнитивными предубеждениями и страхами. Для вида, известного своей способностью к адаптации, мы, люди, не любим перемен.


Когнитивные предубеждения играют существенную роль в нашем нерешении использовать ИИ. Когнитивные искажения — это психологические шаблоны, которые остались с ранних лет существования Homo Sapiens. Это привычки, в которые впадает наш разум, — когнитивные ярлыки, которые могут быть полезны при бегстве от хищников, но определенно искажают наше современное восприятие и суждения.


В этом случае признание и устранение этих предубеждений имеет решающее значение для перехода к более рациональному и этичному подходу к внедрению ИИ. Вот некоторые из них, которые, по моему мнению, могут повлиять на наше подозрение, доверие или принятие технологий искусственного интеллекта.

  • Предвзятость антропоморфизма: люди склонны приписывать человеческие характеристики искусственному интеллекту или роботам, что влияет на их доверие и ожидания. Это может привести к нереалистичным предположениям о возможностях систем ИИ или к приписыванию злых намерений.

  • Эвристика доступности: эта предвзятость заставляет людей переоценивать вероятность событий, связанных с запоминающимися или яркими инцидентами. Сенсационные сообщения в СМИ о неудачах или успехах ИИ могут быть преувеличены и непропорционально повлиять на восприятие надежности и безопасности ИИ.

  • Предвзятость подтверждения: что делают все остальные? Люди могут искать или интерпретировать информацию таким образом, чтобы она подтверждала их ранее существовавшие убеждения или гипотезы об ИИ. Эта предвзятость может помешать объективной оценке технологий искусственного интеллекта и их потенциальных преимуществ или рисков.

  • FOMO: Люди не хотят упускать полезные технологии, но могут не понимать их последствий. Эта предвзятость может затмить критическую оценку и привести к преждевременному принятию. Эта предвзятость связана с эффектом подъёма (например, тенденция делать что-то или верить в то, что делают все остальные или влиятельные лица). Люди могут доверять или не доверять технологиям искусственного интеллекта просто потому, что это кажется популярным мнением.


  • Предвзятость статус-кво: люди предпочитают сохранять нынешнее состояние, что приводит к сопротивлению внедрению чего-то нового, такого как ИИ, независимо от потенциальных преимуществ или доказанного превосходства. Эта предвзятость может замедлить инновации и внедрение технологий, потенциально улучшающих жизнь.


  • Неприятие потерь: эта предвзятость делает боль от потери чего-то более сильной, чем удовольствие от приобретения чего-то равноценного. Для ИИ это означает, что страх потери работы или контроля затмевает преимущества безопасности/эффективности/удобства.

  • Предвзятость самоуверенности: переоценка своей способности контролировать или понимать что-либо. Для ИИ это означает переоценку или недооценку рисков, связанных с ИИ.


  • Алгоритм Отвращение/Доверие: цифры пугают! Люди склонны предвзято относиться к алгоритмам, полагая, что человеческое принятие решений лучше, даже когда факты говорят об обратном. С другой стороны, некоторые могут также безоговорочно доверять решениям ИИ, игнорируя возможность ошибок или предвзятости в системах ИИ.


Экономическая рациональность


Интересно, правда? Но правда в том, что это все академически. Возможно, в конце концов мы даже не сможем принять это решение. Компании уже это делают.

Множество корпораций активно продвигаются вперед в интеграции ИИ — главным образом потому, что рентабельность инвестиций часто говорит громче, чем этические дебаты. Брать Amazon как яркий пример, с его значительным сдвигом в сторону автоматизации. Эффективность и экономические выгоды ощутимы и измеримы, а перед лицом холодных наличных денег моральная и социальная критика внезапно становится более академической.


Однако речь идет не только о капитализме с каменным сердцем; речь идет о выживании и адаптации. Перед предприятиями каждый день стоит задача найти баланс между внедрением технологий и этическими и ESG-обязанностями. Влияние ИИ на занятость и благосостояние людей не может оставаться в стороне. Для тысяч людей финансовая стабильность и карьерное благополучие зависят от этих решений. Это то, с чем сталкиваются многие предприятия.


И здесь вопрос морального императива становится более тонким. Если ИИ может оптимизировать операции, снизить затраты и даже создать новые возможности, то разве мы не несем моральной ответственности за изучение этих технологий?


Хитрость будет заключаться в том, чтобы держать этот этический компас под рукой и гарантировать, что, используя эффективность ИИ, мы также защитим его от его потенциала несправедливо разрушить средства к существованию.

Мы находимся в переходном периоде

В любом случае, нам нужно следить за своим положением. Мы стоим на пороге новой эры, и один решительный толчок может привести нас к свободному падению. ИИ больше не является футуристической фантазией; это абсолютно встроено в нашу повседневную жизнь и работу. Это захватывающе и чертовски страшно.


Одной из наиболее серьезных проблем, с которыми мы сталкиваемся, является доступность или технологический разрыв. ИИ обладает потенциалом демократизации технологий, делая мощные инструменты доступными для более широкой аудитории. Однако сейчас перспективы ИИ в первую очередь видят те, у кого уже есть определенный уровень доступа, поэтому существует вероятность того, что ИИ усугубит существующее неравенство, а не уменьшит его.


Это период адаптации, поэтому потребуется терпение, образование и активные меры, чтобы обеспечить широкое распространение преимуществ ИИ. У нас есть потенциал выровнять правила игры, чтобы потенциал ИИ мог быть раскрыт для всех, а не только для избранных.



Загадка сотрудничества


Итак, это парадокс: чтобы ИИ мог оптимально функционировать вместе с людьми, он должен превосходить нас в определенных задачах. Но это ОЧЕНЬ превосходство грозит вытеснением человеческих ролей, разжигая сопротивление и страх среди нас, смертных.


Этот парадокс создает жесткую «тяни-толкай» для ИИ; вот почему мы видим такие горячие споры о морали. Я считаю, что решением может стать набор новых философий и технологий дизайна, направленных на устранение разрыва между ИИ и человеческим сотрудничеством этическим способом. Я перечислю их ниже. Стоит спросить ChatGPT о:


  • Человеко-ориентированный дизайн искусственного интеллекта (HCAI): гарантирует, что системы искусственного интеллекта разрабатываются с учетом человеческих потребностей и ценностей.

  • Объяснимый ИИ (XAI): демистифицирует решения ИИ, делая их понятными и прозрачными для людей.

  • Этические рамки искусственного интеллекта: направляйте разработку и внедрение систем искусственного интеллекта таким образом, чтобы уважать права и ценности человека.

  • Адаптивный/отзывчивый ИИ: учится на обратной связи от человека и адаптируется к ней, обеспечивая синергетические отношения.

  • Совместное проектирование: вовлекает конечных пользователей в процесс разработки ИИ, обеспечивая удовлетворение их потребностей и проблем.

  • Дополненный интеллект: подчеркивает роль ИИ в расширении человеческих способностей, а не в их замене.

  • Надежный ИИ: укрепляет доверие к системам ИИ за счет надежности, безопасности и этических гарантий.

Самоуправляемые автомобили или не беспилотные?


Подводя итоги, я выскажу свою позицию. Я считаю, что внедрение ИИ — это моральный императив. На мой взгляд, потенциал спасения жизней, повышения качества нашей жизни и даже устранения давнего неравенства слишком значителен, чтобы его игнорировать. Однако это не означает, что мы должны нырять с головой, не задумываясь. По моему мнению, нам нужно подходить к искусственному интеллекту со смесью энтузиазма и осторожности, стремясь исследовать его возможности, но помня об этических, социальных и экономических последствиях.


Вдумчивое рассмотрение, надежные этические рамки и строгое управление являются ключом к ответственному раскрытию потенциала ИИ.


Я все еще открыт для дискуссии на эту тему. Итак, я задам вам вопрос. Ответьте здесь или на моем Ветка LinkedIn и скажи мне, почему я ошибаюсь — или прав. Предлагаю высказать свои мысли и комментарии по этому сложному вопросу.


Готовы ли мы принять ИИ с той моральной серьезностью, которую он требует?

Готовы ли вы отправиться в следующее путешествие на беспилотном автомобиле?