paint-brush
不,你并不害怕人工智能。你害怕别人经过@marshallowitz
1,325 讀數
1,325 讀數

不,你并不害怕人工智能。你害怕别人

经过 Sofia Marshallowitz7m2024/03/25
Read on Terminal Reader

太長; 讀書

人工智能的人性化给责任归属和理解其真正能力带来了挑战。从代理幻觉到人工智能艺术中的伦理考虑,探索人性化机器的复杂性以及人类与智能系统之间不断发展的关系。
featured image - 不,你并不害怕人工智能。你害怕别人
Sofia Marshallowitz HackerNoon profile picture
0-item

2017年,一个机器人厌倦了工作, 在喷泉里自杀了。然后,在 2022 年,一位谷歌工程师在与该公司的聊天机器人 LaMDA 互动后宣称,技术已经变得有意识。近日,有报道称,2021年,一名特斯拉软件工程师遭到失控机器人的袭击。这还没有考虑到对机器会抢走工作的恐惧,或者机器将占领世界的经典小说。


尽管我们在《银翼杀手》中没有将机器视为复制品,但人们倾向于将人类品质拟人化或归因于非人类[1]。这是一种能够分析场景并将其带入我们理解的方式:我们给我们的船和龙卷风命名,我们与我们的宠物交谈,并说它们给我们的愉快感觉就是爱。理解一个以第一人称“对不起,我不知道如何帮助你”的系统比接受我们正在谈论的模型可能只不过是一只随机鹦鹉更容易。 [2]


因此,拟人化的互动与“代理幻觉”现象有关,这是一个心理学概念,指的是将自主行动或控制归因于实际上不具备这种能力的实体的倾向。换句话说,这是一种错误的看法,认为一个主体(无论是人、动物还是机器)是根据自己的自由意志行动的,而实际上它的行动是由外部因素决定的(在计算情况下,发展规则)。


在人工智能系统做出有缺陷的决策或行动的情况下,人们倾向于将这些错误视为实体的“选择”,而不是人类编程和设计的结果,尤其是因为据报道,人工智能系统的自私偏见即使在人机交互中也可以观察到人类导致某人将负面结果的原因和责任视为不可归因于自己的行为[3]。


这种观念的改变危险地倾向于免除人类创造者、运营者和监管者的责任,而不是作为司法监管的问题(这仍然是一个差距,并且在实现方面面临挑战,不仅因为主题的复杂性,而且因为人工智能通常只被理解为机器学习,其前提结构不合理。我们需要更严格的监管吗?我们需要承担更多风险吗?),而是在技术伦理问题上。


让我们以 2023 年发生的更极端但真实的事件为例:一位对聊天机器人有感情的用户在与聊天机器人分享自己的想法并收到“将言语转化为行动”的回复以及其他消息后自杀了。如果该产品的开发人员被法院定罪,如果消息内容和情感相同,假设该聊天机器人已被停用,是否会导致另一个用户对另一个聊天机器人采取相同的行为?这不仅仅是一个法律情况。这是一个社会、心理和技术教育问题。


人性化人工智能的概念是模糊的,一个重大挑战在于缺乏普遍接受的方法来规定设计和使用人工智能的最佳实践。虽然模仿人类行为的界面可能更平易近人,但没有明确的界限来定义产品中应该做什么或不应该做什么。最终,用户拒绝成为唯一的限制因素,尽管潜在的危害可能会在界面变得过于陌生之前显现出来。


用户友好的界面可以降低其背后运行的系统的复杂性。但只要没有关于系统如何工作的教育,用户就无法批判性地思考他们使用的内容。这并不意味着每个人都应该成为程序员,但至少要明白屏幕上的输出来自数据收集、模型开发和设计的路径。有一套规则正在发生。由于人性化对于我们用户来说几乎是一种无意识的行为,所以我们至少用一点知识来限制它。


在谈论人工智能时,要避免拟人化并不容易,特别是考虑到行业、媒体和日常生活本身的标准语言:机器学习、计算机视觉、生成建模。对人工智能的看法可能会受到语言的具体使用的影响。


人工智能的呈现方式具有“具体影响”,特别是对人们分配责任和对所做工作的认可的方式。当仅仅将其描述为人类手中的工具时,它往往会赋予某些个人更大的责任和优点——例如操作代码的人。另一方面,如果人工智能具有人类特征——例如创造能力——那么它就会被视为应该获得更大的荣誉和责任,就像一个具有独立思想和心理能力的代理人。 [4] 当我们阅读有关人工智能的事件或非典型事件的新闻报道时,我们经常会遇到这些术语。


此外,“智能”的归属意味着任务结果的更多责备或功劳归因于具有自主行为的机器人,而不是非自主行为的机器人,即使自主行为并不直接对任务做出贡献。 [3] 因此,这些研究表明,人类可以根据机器的拟人化心理能力将责任分配给计算机或机器人。


机器的人性化不仅改变了设备的责任与其人类创造者的责任之间的区别,而且将意图或意识赋予机器,同时模糊了真正的自主性和意识的界限。


然而,将人性和感知力赋予机器的困难不仅在于人工智能无法拥有它,而且当它说,例如,它感到恐惧时,它实际上是在模仿它所学到的东西,重复这句话背后没有任何本质。即使在今天,关于如何定义意识仍然存在着激烈的争论。我们作为人类的意识。


我们对大脑如何工作的理解仍然相当有限。我们对基础化学有相当多的了解:神经元激活的方式以及化学信号的传递。我们对大脑各个区域的主要功能也有了很好的了解。然而,我们对这些功能如何协调我们知之甚少。在某种程度上,理论推测已经取代了对大脑中发生的事情的详细神经生理学研究。但除此之外呢? [5] 为什么我们对自己有这种神奇的概念?为什么同样的经历会给我们带来不同的影响?我们所有人都以同样的方式感受到同样的感觉吗?

如果作为一个人,虽然我们经历过它,但我们仍然不能完全理解它的整体,那么我们怎么能说机器也经历过这种复杂性呢?通过将机器提升到人类的能力,我们削弱了人的特殊性格。


对于 2023 年巴西文学最高荣誉之一的 Jabuti 奖,巴西图书商会 (CBL) 决定取消 1818 年经典作品《弗兰肯斯坦》的最佳插画奖资格,因为该艺术家报告使用人工智能解决方案开发了艺术。具有讽刺意味的是,获得非小说类奖项的一本书涉及人工智能对人类的影响(“Humanamente digital: Inteligência Artificial centrada no humano”,类似于“Humanly Digital: Human-Centered Artificial Intelligence”)英文,作者:Cassio Pantaleone)。一方面,我们认识到人类经验与机器的交织。另一方面,我们仍然无法验证用作艺术工具的算法是否可以被视为有效的创作方法,即使艺术过程(即使是通过机器学习进行)也需要采取行动(以及人类对美和美学的欣赏)。


如果机器不被不加区别地用来窃取工作,那么它们就不会窃取工作。机器不会杀人,除非它们被用作武器。机器也不会受苦或产生同理心,尽管它们的文本会模仿这一点,因为它们接受了我们的数据训练,充满了只有我们才能真正感受到的感受。它们几乎是傀儡神话的现代版本。人类如何与非人类智能建立联系?拟人化是一个有效的答案,但不是唯一的答案。当它被使用时,它不能免除我们对其后果的真正责任,无论适当与否:我们。


归根结底,人工智能是我们自己的一面镜子。如果我们害怕它的去向,那实际上是因为我们害怕我们将要创造的道路。

参考

[1] Epley, N.、Waytz, A. 和 Cacioppo, JT (2007)。论看人:拟人论的三因素理论。心理学评论,114(4),864-886。 https://doi.org/10.1037/0033-295X.114.4.864

[2] Shneiderman, B. 和 Muller, M. (2023)。论人工智能拟人化https://medium.com/ human-centered-ai/on-ai-anthropomorphism-abff4cecc5ae

[3] Kawai, Y.、Miyake, T.、Park, J. 等人。基于拟人化的机器人因果和责任归因。科学报告 13, 12234 (2023)。 https://doi.org/10.1038/s41598-023-39435-5

[4] Epstein, Z.、Levine, S.、Rand, DG 和 Rahwan, I. (2020)。谁因人工智能生成的艺术而受到赞扬?载于《iScience》(第 23 卷,第 9 期,第 101515 页)。爱思唯尔 BV。 https://doi.org/10.1016/j.isci.2020.101515

[5]戈夫,P.(2023)。理解意识不仅仅是探索大脑化学。科学美国人https://www.scientificamerican.com/article/understand-thought-goes-beyond-exploring-brain-chemistry/


以下提示生成了本文中使用的图像:“创建一个照镜子的人,但镜子的形状像机器人。”索菲亚×DALL·E