paint-brush
当我们学习使用人工智能时,它也在学习使用我们经过@thesociable
771 讀數
771 讀數

当我们学习使用人工智能时,它也在学习使用我们

经过 The Sociable5m2023/07/29
Read on Terminal Reader

太長; 讀書

历史学家尤瓦尔·诺亚·赫拉里 (Yuval Noah Harari) 在联合国人工智能造福全球峰会上表示,“当我们在学习使用人工智能时,它也在学习使用我们”。赫拉里认为,人工智能应该继续发展,但不应在没有安全检查和安全检查的情况下部署。法规。这位历史学家将人工智能的发展比作实验室里的病毒,开发它可以,但不能将其部署到公众面前。
featured image - 当我们学习使用人工智能时,它也在学习使用我们
The Sociable HackerNoon profile picture


历史学家尤瓦尔·诺亚·赫拉里 (Yuval Noah Harari) 在联合国人工智能造福全球峰会上表示,“当我们学习使用人工智能时,人工智能也在学习使用我们”,我们应该放慢人工智能的部署速度,而不是减缓其发展速度。


周四,在联合国国际电信联盟(ITU)人工智能造福人类全球峰会上,赫拉里在题为安全和负责任的人工智能所需的护栏”的会议上发表讲话,他认为人工智能应该继续发展,但不应在没有安全和负责任的人工智能的情况下部署人工智能。安全检查和法规。


“当我们学习使用人工智能时,它也在学习使用我们”

Yuval Noah Harari,人工智能造福全球峰会,2023 年


赫拉里说:“当我们学习使用人工智能时,它也在学习使用我们。”他补充道,“阻止[人工智能]的发展非常困难,因为我们有这种军备竞赛心态。”人们(其中一些人)意识到了危险,但他们不想被抛在后面。


但真正重要的事情,这是个好消息,最重要的是放慢部署速度,而不是开发速度,”他补充道。


这位历史学家将人工智能的发展比作实验室里的病毒,开发它可以,但不能将其部署到公众面前。


“这就像你的实验室里有这种非常危险的病毒,但你不将其释放到公共领域;没关系”

Yuval Noah Harari,人工智能造福全球峰会,2023 年


“只要你不将其部署到公共领域,你就可以在实验室中拥有极其复杂的人工智能工具。这不太危险,”赫拉里说。


“你知道,这就像你的实验室里有这种非常危险的病毒,但你不将其释放到公共领域;没关系。那里有安全边际。”


正如制药公司和汽车制造商必须经过安全检查一样,赫拉里认为这也应该适用于人工智能。


“现在历史上第一次有可能创造出数十亿个假人……如果你无法知道谁是真人,谁是假人,信任就会崩溃,至少自由社会也会崩溃”

Yuval Noah Harari,人工智能造福全球峰会,2023 年


关于人工智能生成的深度伪造品和机器人,赫拉里说:“现在历史上第一次有可能创造出假人——创造出数十亿个假人——你可以在网上与某人互动,而你却不知道他们是谁。”它是一个真正的人还是一个机器人。


“可能一年后,我们现在正在进行的对话几乎不可能确定你是在与深度伪造者还是与真人交谈。


“如果允许这种情况发生,它对社会的影响就像假钱对金融体系的威胁一样。”


“在将人工智能部署到公共领域之前,我们应该更好地了解它对社会、文化、心理和世界经济的潜在影响”

Yuval Noah Harari,人工智能造福全球峰会,2023 年


这位历史学家补充说:“如果你无法知道谁是真人,谁是假人,信任就会崩溃,至少自由社会也会崩溃。也许独裁国家能够以某种方式进行管理,但民主国家却不行。”


赫拉里澄清说,创造假人是可以的,只要他们被贴上假人的标签,而不是冒充真人——“我需要知道这是不是真人,”他说。


国际电信联盟是联合国负责信息和通信技术(ICT)的专门机构。



“我们不再是神秘的灵魂;我们现在是可被黑客攻击的动物”

尤瓦尔·诺亚·赫拉里,世界经济论坛,2020



赫拉里曾多次在达沃斯举行的世界经济论坛 (WEF) 年会上发表讲话,他在会上宣称:“我们人类应该习惯这样一种观念:我们不再是神秘的灵魂;而是我们的灵魂。”我们现在是可被黑客攻击的动物。”


赫拉里在 2020 年世界经济论坛上发表讲话时表示,“要破解人类,你需要大量的生物学知识、大量的计算能力,尤其是大量的数据。


“如果你有足够的关于我的数据、足够的计算能力和生物知识,你就可以侵入我的身体、我的大脑、我的生活。你可以达到比我自己还了解我的地步。”


赫拉里说,有了这种攻击人类的权力,“[它]当然可以用于良好的目的,例如提供更好的医疗保健,但如果这种权力落入 21 世纪的斯大林手中,结果将是最糟糕的极权主义人类历史上的政权,我们已经有很多人申请 21 世纪斯大林的职位。”


“在我们看到实际发生的一些有意义的危害(而不是想象中的场景)之前,我们不应该监管人工智能”

Michael Schwarz,世界经济论坛增长峰会,2023 年


微软的迈克尔·施瓦茨 (Michael Schwarz) 在 2023 年世界经济论坛增长峰会上的“ 增长热点:驾驭生成式 AI 革命”小组中发表讲话时表示,在人工智能方面,最好在发生不好的事情之前不要对其进行监管,以免抑制潜在的更大利益。


我非常有信心,人工智能会被坏人利用;是的,它会造成真正的损害;是的,我们必须非常小心、非常警惕,”施瓦茨告诉世界经济论坛专家组。


当被问及监管生成式人工智能时,微软首席经济学家解释道:

“我们监管人工智能的理念应该是什么?显然,我们必须对其进行监管,我认为我的理念非常简单。


我们应该以一种不会把婴儿和洗澡水一起倒掉的方式来监管人工智能

“所以,我认为监管不应基于抽象原则。


“作为一名经济学家,我喜欢效率,所以首先,我们不应该监管人工智能,除非我们看到一些实际发生的有意义的伤害——而不是想象中的场景。”


彭博社报道,2023 年 1 月 23 日,微软延长了与 ChatGPT 的创建者 OpenAI 的合作关系,在“微软于 2019 年向 OpenAI 注入 10 亿美元并在 2021 年向 OpenAI 注入另一轮资金”的基础上, 又追加投资了 100 亿美元



本文最初由Tim HinchliffeThe Sociable 上发表。