Концепция беспилотных транспортных средств (AV) уже давно вызывает споры об этичности передачи автономии принятия решений на дорогах. Общество автомобильных инженеров устанавливает 6 уровней автономии, официально используемых в отрасли для дифференциации возможностей AV.
Уровни 0–2 AV уже существуют на коммерческих рынках. Уровень 3 — это первый значительный скачок в возможностях. В нем описываются транспортные средства, которые могут самостоятельно управлять автомобилем в течение коротких периодов времени, но требуют, чтобы водитель-человек был готов вмешаться, если система этого потребует. Уровни 4–5 выходят за рамки обнаружения окружающей среды. Они включают в себя передовые технологии, которые полностью исключают вмешательство человека. AV-пилоты 4-го уровня могут совершить весь путь без вмешательства человека при определенных условиях. Уровень 5 может совершать целые путешествия при любых обстоятельствах. Например, уровень 5 будет связан с транспортными средствами, которым даже не нужны рулевые колеса или педали.
Моральные и этические дилеммы, возникающие вокруг этих двух более высоких уровней автономии, возникают из-за потери почти всех прямых полномочий по принятию решений. Правильное функционирование основных технологий, способность ценить человеческую жизнь и принципы, компромиссы и подотчетность — все это становится проблемами как с этической, так и с правовой точки зрения.
Мы рассмотрим их, начиная с печально известной проблемы с троллейбусом.
«Проблема вагонетки» — это мысленный эксперимент, созданный в рамках раздела философии, называемого этикой добродетели, и обсуждающий, как предсказуемые последствия сравниваются с предполагаемыми последствиями на моральном уровне. Основной вариант, предложенный британским философом Филиппой Фут (1967), выглядит следующим образом:
По путям движется троллейбус, вышедший из-под контроля и неспособный сломаться. Но к этим путям привязаны 5 человек, и троллейбус быстро приближается к ним. Вы стоите на путях рядом с рычагом, который, если потянуть за него, изменит траекторию тележки на другой набор путей. К этому альтернативному пути привязан только один человек, поэтому в настоящее время троллейбус убьет 5 человек, но если вы начнете действовать, их число можно сократить до одного. Вы тянете рычаг?
Проблему троллейбуса можно рассматривать с точки зрения многих этических концепций.
Какая бы идеология ни была, наш долг минимизировать вред другим находится в прямом противоречии с нашим долгом выбирать морально правильное действие. Именно способность ценить подобные решения и компромиссы многие подвергают сомнению в автономных транспортных средствах. Например, если AV вот-вот разобьется, следует ли пассажирам транспортного средства отдавать приоритет перед пешеходами/другими транспортными средствами?
Однако не только способность принимать трудные решения должна учитываться в этике беспилотных транспортных средств. Когда люди сами не могут прийти к согласию относительно того, какая этическая основа лучше всего решит проблему троллейбуса, как мы можем запрограммировать беспилотные автомобили так, чтобы они взвешивали подобные компромиссы в рамках одной идеологии?
Какие базовые ценности и принципы мы должны запрограммировать в ИИ?
Должны ли мы хотеть, чтобы приоритет отдавался положительным обязанностям: числу спасенных жизней, или отрицательным обязанностям: минимизации активного причиненного вреда?
В 2018 году Uber протестировал AV-систему 3-го уровня в Аризоне, что привело к трагической гибели пешеходов — первой в истории причиной гибели AV-транспорта. Будучи 3-м уровнем, в машине присутствовал запасной водитель, но этого было недостаточно. Поскольку система обнаружения окружающей среды изо всех сил пытается правильно идентифицировать препятствие (в данном случае пешеход с велосипедом), система оповещения автомобиля не распознала возможность причинения вреда достаточно быстро. К тому времени, когда резервный водитель был наконец предупрежден о необходимости взять на себя управление, транспортному средству оставалось уже 0,2 секунды до удара и он двигался со скоростью 39 миль в час.
В этом примере не обязательно обсуждается компромисс между прямым вредом пассажирам AV и пешеходам, находящимся вне транспортного средства, поскольку запасной водитель никогда сам не подвергался риску причинения вреда. Тем не менее, это проясняет, можем ли мы и должны ли мы полагаться на сенсорное обнаружение ИИ вместо нашего собственного и является ли ручное управление осуществимой резервной копией в таких напряженных и краткосрочных сценариях.
Это также подчеркивает проблему передачи автономии, даже временной, автономии из-за отсутствия морального агента, виновного в убийстве. В этом случае Uber отозвал более 90 других AV-автомобилей 3-го уровня, которые он тестировал в Аризоне, и договорился с семьей жертвы. С другой стороны, запасному водителю было предъявлено обвинение в убийстве по неосторожности. Была ли вина возложена на нее правильно или это должен был быть автомобиль – возможно ли последнее?
ЮНЕСКО подчеркивает, что этические рамки ИИ должны отдавать приоритет предотвращению вреда и уважению прав человека. Безопасность и недискриминация должны лежать в основе принципов машинного обучения. Человеческий надзор, контроль и подотчетность также следует считать важными наряду с ответственным ИИ.
Дополнительные концепции справедливости и «для всеобщего блага» предполагают, что мы хотим, чтобы ИИ использовал утилитарную идеологию для принятия решений. С другой стороны, «уважение прав человека» играет роль в моральной правильности самих действий, т.е. в деонтологии.
Прозрачность, конечно, также будет иметь первостепенное значение для понимания того, как решения в конечном итоге рассчитываются AV. Для оценки ущерба, причиненного или предотвращенного в случае аварии с AV, нам необходимо понять, как и почему лежащая в основе технология искусственного интеллекта приходит к определенному выводу. Общественное доверие к AV потребует понимания ответственности и обеспечения соблюдения правильных рамок.
Европейская парламентская исследовательская служба признает этические, юридические и экономические проблемы, которые необходимо учитывать при разработке и внедрении автоматизированного ИИ для принятия решений. Это включает в себя исследования о том, как разработать этические принципы в базовых алгоритмах и как привести глобальную политику и правила в соответствие с экспоненциальными темпами инноваций в области ИИ.
С точки зрения прав человека, человеческая активность также находится в приоритете: исследовательские организации хотят защитить «право конечных пользователей не подчиняться решениям, основанным исключительно на автоматизированной обработке». Что касается технологий, стандарты кибербезопасности станут более важными для обеспечения безопасности и надежности систем. Этический ИИ требует надежного программного обеспечения.
Хотя в настоящее время у нас нет широкой публики, использующей AV-автомобили уровня 3+ на дорогах Великобритании, или каких-либо подобных транспортных средств, доступных на внутренних рынках, крупные игроки отрасли, такие как BMW, Tesla и Mercedes, планируют запустить их к 2025 году с использованием технологий. например Traffic Jam Pilot, чтобы сделать это.
Если АВ правильно поймут этику принятия решений, можно будет увидеть большие преимущества. По некоторым оценкам, количество дорожно-транспортных происшествий с их участием на дорогах сократится на 90%. Тем не менее, очевидно, что у нас еще нет поддающихся количественной оценке этических и правовых рамок, описывающих, как следует принимать решения и определять приоритеты компромиссов, когда речь идет о технологиях, лежащих в основе беспилотных летательных аппаратов.
Таким образом, производителям AV-технологий необходимо будет более подробно объяснить, что означает «минимизировать вред» и какая этическая идеология должна диктовать принятие решений. Как мы видели на примере аварии с Uber в 2018 году, также необходимо будет прояснить ответственность и агентность. Все это, то, как с ними справляются и в каком направлении мы продвигаемся, будет иметь долгосрочные этические последствия для общества.