五年前,弗兰克·陈(Frank Chen)提出了一个问题,这个问题一直萦绕在我的脑海中。这个问题是:“如果自动驾驶汽车的安全性提高了 51%,那么从道义上讲,我们是否没有义务采用它们?”在过去五年中,我多次提出过这个问题,通常,下意识的反应会引发一场有趣的辩论。这个问题之所以如此重要,是因为它有锋芒——它不是 99% 安全,也不是 70% 安全,它只是51% 安全。
具体来说,美国国家公路安全管理局报告称,2022 年交通事故死亡人数估计为 42,795 人。42,795 人的 50% 为 21,398 人,51% 为 21,825 人。
这意味着,如果自动驾驶汽车的安全性提高 51%,那么每年可以挽救 427 人的生命。这相当于 1.5 架满载乘客的波音 777 飞机。
拯救 427 条生命是否能成为收养的道德依据?
在我分享这个问题的五年里,答案从来都不是简单的。它们总是充满着“如果”。但即使答案不够清晰,我认为这个问题非常重要。部分原因是它开启了一场更广泛、同样重要的辩论,即在我们生活和工作的许多方面采用人工智能的道德责任。毕竟,避免使用可以拯救生命的技术可能与过早采用技术一样具有道德问题,
我一直认为,围绕自动驾驶汽车的争论是人工智能广泛讨论的完美缩影。如果我们拥有的技术在统计上比人类驾驶的汽车更安全,那么道德选择不是显而易见的吗?
考虑一下:
请记住,这些数字不仅仅是统计数字。它们代表着通过采用人工智能技术可以拯救的真实生命。
但为什么要止步于自动驾驶汽车呢?人工智能在提高安全性、效率和准确性方面的潜力涵盖了医学、公共卫生、食品安全、农业、网络安全、犯罪预防和军事科学等领域。如果人工智能能够比人类医生更准确地诊断疾病,在农作物歉收破坏粮食供应之前预测农作物歉收,或者在网络攻击破坏我们的数据之前阻止它们,我们难道没有道德义务也利用这些技术吗?
当然,这些都是戏剧性的例子,但争论的范围超出了生死攸关的场景。人工智能改善我们日常生活质量的能力同样引人注目。无论是通过简化平凡的任务,还是使信息和服务更易于获取和公平,人工智能都可以结束单调乏味的工作并提高我们的日常生活质量。采用人工智能的道德责任不仅是为了防止伤害或死亡;还在于我们是否有义务在力所能及的情况下为人类福祉做出贡献。
那么,我们是否应该选择人工驾驶的车辆(或人工主导的流程),尽管我们明知它们不如人工智能车辆安全或高效?仅仅因为它们更像人类?
面对人机操作系统和人工智能增强型替代方案之间的选择,我的想法是,这个决定显然应该取决于安全性和效率,而不是对某些模糊的“人性化”概念的忠诚。
拥抱人工智能并不意味着无视人类的价值或投入;相反,它是关于承认人类并不是天生就优越——而且说实话,在特定情况下往往明显低劣。
现在请不要动手,我不会加入机器人霸主团队。我理解很多人对人工智能已经对他们的工作造成的破坏以及毫无疑问正在走向的社会变革感到的焦虑。我只是想知道从长远来看,人工智能的效率和生活质量效益是否可能超过这些破坏的影响。
我们不愿采用人工智能的部分原因是认知偏见和恐惧。作为一个以适应性强而闻名的物种,我们人类并不喜欢改变。
认知偏见在我们犹豫是否接受人工智能方面发挥了重要作用。认知偏见是一种心理模式,是从我们作为智人早期遗留下来的。它们是我们的思维习惯——认知捷径,在逃避掠食者时可能很有用,但肯定会扭曲我们现代的感知和判断。
在这种情况下,认识并解决这些偏见对于以更理性、更合乎道德的方式采用人工智能至关重要。以下是我认为可能会发挥作用的一些因素,它们会影响我们对人工智能技术的怀疑、信任或接受。
很有趣,对吧?但事实是,这都是理论性的。我们甚至可能最终都无法做出这个决定。公司已经在做决定了。
许多公司都在大力推进人工智能集成——主要是因为投资回报往往比道德争论更有说服力。
不过,这不仅关乎铁石心肠的资本主义,还关乎生存和适应。企业每天都面临着平衡技术采用与道德和 ESG 责任的挑战。人工智能对就业和人类福祉的影响不能被忽视。对于成千上万的人来说,财务稳定和职业健康取决于这些决定。这是许多企业正在努力解决的问题。
而这正是道德责任问题变得更加微妙的地方。如果人工智能可以简化运营、降低成本,甚至创造新的机会,那么我们是否也有道德责任去探索这些技术呢?
关键在于时刻牢记道德指南针,确保我们在享受人工智能效率的同时,也能防止其不公平地破坏生计。
无论如何,我们都需要小心脚下。我们正站在一个新时代的悬崖边上,一股强大的力量就可能让我们陷入自由落体。人工智能不再是一个未来幻想,它已经完全融入了我们的日常生活和工作中。这令人兴奋,但也令人恐惧。
我们面临的最大挑战之一是可及性或技术差距。人工智能有潜力使技术民主化,让更广泛的受众能够使用强大的工具。然而,目前,人工智能的前景主要被那些已经拥有一定程度访问权限的人所看到,因此人工智能也有可能加剧现有的不平等,而不是缓解它们。
这是一个调整期,因此需要耐心、教育和积极措施,以确保人工智能的好处得到广泛传播。我们有可能创造公平的竞争环境,让人工智能的潜力惠及所有人,而不仅仅是少数特权阶层。
好吧,这是一个悖论:人工智能要想与人类一起发挥最佳作用,就必须在某些任务上优于我们。但正是这种优越性有可能取代人类的角色,加剧我们凡人的抵抗和恐惧。
这种悖论为人工智能带来了艰难的“推拉”;这就是为什么我们看到如此激烈的道德争论。我相信解决方案可能是一套新兴的设计理念和技术,旨在以道德的方式弥合人工智能与人类合作之间的差距。我将在下面列出它们。它们值得向 ChatGPT 询问:
最后,我要表明我的立场。我认为采用人工智能是一种道德责任。在我看来,人工智能在拯救生命、提高我们的生活质量,甚至解决长期不平等问题方面的潜力不容忽视。然而,这并不意味着我们应该不加思索地一头扎进去。在我看来,我们需要以热情与谨慎相结合的态度对待人工智能——保持对探索其可能性的兴奋,但要留意其道德、社会和经济影响。
周到的考虑、健全的道德框架和严格的治理是负责任地释放人工智能潜力的关键。
我仍然愿意就这个问题进行辩论。所以,我会把这个问题抛给你。在这里或在我的
我们是否已经准备好以人工智能所要求的道德严肃性去拥抱它了?
您准备好驾驶自动驾驶汽车进行下一次公路旅行了吗?