Пять лет назад Фрэнк Чен задал вопрос, который с тех пор не дает мне покоя каждый день. Вопрос заключался в следующем: «Если беспилотные автомобили на 51% безопаснее, разве мы не морально обязаны их принять?». Я задавал этот вопрос массу раз за последние пять лет, и обычно рефлекторная реакция приводит к интересным дебатам. Что делает этот вопрос таким интересным, так это острие ножа: оно не на 99% безопаснее, не на 70% безопаснее, а всего лишь на 51%.
Чтобы поместить это в контекст. Национальная администрация безопасности дорожного движения сообщила , что в 2022 году в результате дорожно-транспортных происшествий погибло около 42 795 человек. 50% от 42795 — это 21398 человек, а 51% — это 21825 человек.
Это означает, что если беспилотные автомобили станут на 51% безопаснее, их использование спасет жизни 427 человек каждый год. Это примерно 1,5 самолета Боинг 777, заполненного пассажирами.
Является ли спасение 427 жизней моральным аргументом в пользу усыновления?
За те пять лет, что я делился этим вопросом, ответы никогда не были простыми. Они всегда полны вопросов «а что, если». Но даже если ответы не ясны, я думаю, что этот вопрос невероятно важен. Частично потому, что это открывает более широкую — и не менее важную — дискуссию о моральном императиве внедрения ИИ во многие аспекты нашей жизни и работы. Потому что, в конце концов, отказ от технологий, которые могли бы спасти жизни, может быть столь же этически проблематичным, как и слишком поспешное внедрение технологий.
Я всегда считал, что дебаты вокруг беспилотных транспортных средств являются идеальным микрокосмом для более широкого обсуждения ИИ. Если мы обладаем технологией, которая статистически безопаснее транспортных средств, управляемых человеком, разве моральный выбор не очевиден?
Учти это:
И помните, эти цифры — не просто статистика. Они представляют собой реальные жизни, которые можно было бы спасти, используя технологию искусственного интеллекта.
Но зачем останавливаться на автономных транспортных средствах? Потенциал искусственного интеллекта для повышения безопасности, эффективности и точности распространяется на такие области, как медицина, общественное здравоохранение, безопасность пищевых продуктов, сельское хозяйство, кибербезопасность, предотвращение преступности и военная наука. Если ИИ может диагностировать болезни с большей точностью, чем врачи-люди, предсказывать неурожаи до того, как они опустошат запасы продовольствия, или предотвращать кибератаки до того, как они повредят наши данные, разве у нас нет морального обязательства также использовать эти технологии?
Конечно, это драматические примеры, но аргумент выходит за рамки сценариев жизни и смерти. Способность ИИ улучшать качество нашей повседневной жизни не менее привлекательна. Упрощая повседневные задачи или делая информацию и услуги более доступными и справедливыми, ИИ может положить конец рутинной работе и улучшить качество нашей повседневной жизни. Моральный императив внедрения ИИ заключается не только в предотвращении вреда или смерти; речь идет о том, обязаны ли мы внести свой вклад в благосостояние людей, если можем.
Итак, выбираем ли мы транспортные средства, управляемые человеком (или процессы, управляемые человеком), зная, что они менее безопасны и эффективны, чем их аналоги с искусственным интеллектом? Просто потому, что они более человечны?
Столкнувшись с выбором между системами, управляемыми человеком, и альтернативами, улучшенными искусственным интеллектом, я считаю, что решение, очевидно, должно зависеть от безопасности и эффективности, а не от приверженности какой-то туманной идее о том, что является «человечным», а что нет.
Использование ИИ не означает игнорирования человеческой ценности или вклада; скорее, речь идет о признании того, что человеческое по своей сути не превосходит — и, честно говоря, часто значительно уступает в определенных контекстах.
Пожалуйста, не доставай вилы, я не присоединяюсь к команде роботов-повелителей. Я понимаю беспокойство, которое испытывают многие люди по поводу разрушения, которое ИИ уже вызывает в их работе, и социальных изменений, которые, несомненно, нас ждут. Мне просто интересно, смогут ли эффективность ИИ и улучшение качества жизни в долгосрочной перспективе перевесить последствия этих потрясений.
Отчасти наше нежелание внедрять ИИ вызвано когнитивными предубеждениями и страхами. Для вида, известного своей способностью к адаптации, мы, люди, не любим перемен.
Когнитивные предубеждения играют существенную роль в нашем нерешении использовать ИИ. Когнитивные искажения — это психологические шаблоны, которые остались с ранних лет существования Homo Sapiens. Это привычки, в которые впадает наш разум, — когнитивные ярлыки, которые могут быть полезны при бегстве от хищников, но определенно искажают наше современное восприятие и суждения.
В этом случае признание и устранение этих предубеждений имеет решающее значение для перехода к более рациональному и этичному подходу к внедрению ИИ. Вот некоторые из них, которые, по моему мнению, могут повлиять на наше подозрение, доверие или принятие технологий искусственного интеллекта.
Интересно, правда? Но правда в том, что это все академически. Возможно, в конце концов мы даже не сможем принять это решение. Компании уже это делают.
Множество корпораций активно продвигаются вперед в интеграции ИИ — главным образом потому, что рентабельность инвестиций часто говорит громче, чем этические дебаты. Брать
Однако речь идет не только о капитализме с каменным сердцем; речь идет о выживании и адаптации. Перед предприятиями каждый день стоит задача найти баланс между внедрением технологий и этическими и ESG-обязанностями. Влияние ИИ на занятость и благосостояние людей не может оставаться в стороне. Для тысяч людей финансовая стабильность и карьерное благополучие зависят от этих решений. Это то, с чем сталкиваются многие предприятия.
И здесь вопрос морального императива становится более тонким. Если ИИ может оптимизировать операции, снизить затраты и даже создать новые возможности, то разве мы не несем моральной ответственности за изучение этих технологий?
Хитрость будет заключаться в том, чтобы держать этот этический компас под рукой и гарантировать, что, используя эффективность ИИ, мы также защитим его от его потенциала несправедливо разрушить средства к существованию.
В любом случае, нам нужно следить за своим положением. Мы стоим на пороге новой эры, и один решительный толчок может привести нас к свободному падению. ИИ больше не является футуристической фантазией; это абсолютно встроено в нашу повседневную жизнь и работу. Это захватывающе и чертовски страшно.
Одной из наиболее серьезных проблем, с которыми мы сталкиваемся, является доступность или технологический разрыв. ИИ обладает потенциалом демократизации технологий, делая мощные инструменты доступными для более широкой аудитории. Однако сейчас перспективы ИИ в первую очередь видят те, у кого уже есть определенный уровень доступа, поэтому существует вероятность того, что ИИ усугубит существующее неравенство, а не уменьшит его.
Это период адаптации, поэтому потребуется терпение, образование и активные меры, чтобы обеспечить широкое распространение преимуществ ИИ. У нас есть потенциал выровнять правила игры, чтобы потенциал ИИ мог быть раскрыт для всех, а не только для избранных.
Итак, это парадокс: чтобы ИИ мог оптимально функционировать вместе с людьми, он должен превосходить нас в определенных задачах. Но это ОЧЕНЬ превосходство грозит вытеснением человеческих ролей, разжигая сопротивление и страх среди нас, смертных.
Этот парадокс создает жесткую «тяни-толкай» для ИИ; вот почему мы видим такие горячие споры о морали. Я считаю, что решением может стать набор новых философий и технологий дизайна, направленных на устранение разрыва между ИИ и человеческим сотрудничеством этическим способом. Я перечислю их ниже. Стоит спросить ChatGPT о:
Подводя итоги, я выскажу свою позицию. Я считаю, что внедрение ИИ — это моральный императив. На мой взгляд, потенциал спасения жизней, повышения качества нашей жизни и даже устранения давнего неравенства слишком значителен, чтобы его игнорировать. Однако это не означает, что мы должны нырять с головой, не задумываясь. По моему мнению, нам нужно подходить к искусственному интеллекту со смесью энтузиазма и осторожности, стремясь исследовать его возможности, но помня об этических, социальных и экономических последствиях.
Вдумчивое рассмотрение, надежные этические рамки и строгое управление являются ключом к ответственному раскрытию потенциала ИИ.
Я все еще открыт для дискуссии на эту тему. Итак, я задам вам вопрос. Ответьте здесь или на моем
Готовы ли мы принять ИИ с той моральной серьезностью, которую он требует?
Готовы ли вы отправиться в следующее путешествие на беспилотном автомобиле?