paint-brush
私たちが AI の使い方を学ぶと同時に、私たちの使い方も学ぶことになる@thesociable
775 測定値
775 測定値

私たちが AI の使い方を学ぶと同時に、私たちの使い方も学ぶことになる

The Sociable5m2023/07/29
Read on Terminal Reader

長すぎる; 読むには

歴史家のユヴァル・ノア・ハラリ氏は、国連のAI for Goodグローバル・サミットで「私たちがAIの使い方を学んでいる間、AIは私たちを利用することを学んでいる」と語った。ハラリ氏は、AIは開発を継続すべきだが、安全性のチェックや安全性の確認なしに導入すべきではないとの意見を述べた。規則。この歴史家は、AIの開発を研究室にウイルスが存在することに例え、開発するのはOKだが、一般に展開するのはダメだと述べた。
featured image - 私たちが AI の使い方を学ぶと同時に、私たちの使い方も学ぶことになる
The Sociable HackerNoon profile picture


歴史家のユヴァル・ノア・ハラリ氏は、国連のAI for Goodグローバルサミットで、「私たちがAIの使い方を学んでいる一方で、AIも私たちを利用することを学んでいる」とし、開発ではなく展開を遅らせる必要があると語った。


ハラリ氏は木曜日、国連の国際電気通信連合(ITU) AI for Goodグローバルサミットのセッション「安全で責任あるAIに必要なガードレール」で講演し、AIは開発を継続すべきだが、それなしに導入すべきではないと意見した。安全性のチェックと規制。


「私たちが AI の使い方を学んでいると、同時に AI も私たちを使うことを学んでいます。」

ユヴァル・ノア・ハラリ、AI for Good グローバル サミット、2023 年


ハラリ氏は、「われわれがAIの使い方を学んでいる一方で、AIはわれわれを利用することも学んでいる」と述べ、「われわれは軍拡競争の考え方を持っているため、(AIの)開発を止めるのは非常に難しい」と付け加えた。人々は、その一部は危険を認識していますが、取り残されることを望んでいません。


しかし、本当に重要なことは、これは良いニュースです。重要なことは、開発ではなく展開を遅らせることです」と彼は付け加えた。


この歴史家は、AIの開発を研究室にウイルスが存在することに例え、開発するのはOKだが、一般に展開するのはダメだと述べた。


「この非常に危険なウイルスが研究室にあるのに、公共の場には放出しないようなものです。それはいいです"

ユヴァル・ノア・ハラリ、AI for Good グローバル サミット、2023 年


「公的領域に展開しない限り、非常に洗練された AI ツールを研究室に置くことができます。これはそれほど危険ではない」とハラリ氏は語った。


「ご存知のとおり、この非常に危険なウイルスが研究室にあるのに、公共の場には放出しないようなものです。それはいいです。そこには安全マージンがある。」


製薬会社や自動車メーカーが安全性検査を受けなければならないのと同じように、ハラリ氏は同じことがAIにも適用されるべきだと主張した。


「今、歴史上初めて、何十億もの偽の人間を作り出すことが可能になった[…] 誰が本物の人間で誰が偽の人間なのか分からなければ、信頼は崩壊し、少なくともそれによって社会は自由になるだろう」 」

ユヴァル・ノア・ハラリ、AI for Good グローバル サミット、2023 年


AI が生成するディープフェイクとボットについて、ハラリ氏は次のように述べました。「オンラインで知らない誰かとやり取りする偽の人物を作成することは史上初めて、つまり何十億もの偽の人物を作成することが可能になりました」それは本物の人間かボットです。


「おそらく1年後には、私たちが今行っているこの会話は、ディープフェイクと話しているのか、それとも本物の人間と話しているのかを確信することはほとんど不可能になるだろう。


「もしこのようなことが許されれば、ニセマネーが金融システムに及ぼす脅威と同じことを社会にもたらすことになる。」


「私たちは、AIを公共の場に導入する前に、世界の社会、文化、心理、経済に対するAIの潜在的な影響をよりよく理解する必要があります。」

ユヴァル・ノア・ハラリ、AI for Good グローバル サミット、2023 年


この歴史家はさらに、「誰が本物の人間で誰が偽物の人間なのか分からなければ、信頼は崩壊し、少なくとも自由社会は崩壊するだろう」と付け加えた。おそらく独裁政権は何とかやっていけるかもしれないが、民主主義は無理だろう。」


ハラリ氏は、偽物の人間を作成することは、そのようにラベル付けされ、本物として偽装されない限りは問題ないと明言し、「それが本物の人間かどうかを知る必要がある」と述べた。


国際電気通信連合は、情報通信技術 (ICT) に関する国連の専門機関です。



「私たちはもはや神秘的な魂ではありません。私たちは今やハッキング可能な動物です」

ユヴァル・ノア・ハラリ、世界経済フォーラム、2020



ハラリ氏はダボスで開催された世界経済フォーラム(WEF)年次総会で何度も講演し、次のように宣言した。私たちは今やハッキング可能な動物です。」


2020年のWEFで講演したハラリ氏は、「人間をハッキングするには、多くの生物学的知識、多くの計算能力、そして特に大量のデータが必要だ。


「私に関する十分なデータと十分な計算能力と生物学的知識があれば、私の体、脳、人生をハッキングすることができます。あなたは、私が自分自身を知るよりも私のことをよく知っているという点に到達することができます。」


人間をハッキングするこの力を使えば、もちろん、より良い医療を提供するなどの良い目的に使用することもできるが、もしこの力が21世紀のスターリンの手に渡れば、その結果は最悪の全体主義者になるだろう、とハラリは語った。人類史上のスターリン政権にはすでに多くの応募者がいる。」


「想像上のシナリオではなく、実際に起きている何らかの意味のある害悪が分かるまで、AIを規制すべきではない」

マイケル・シュワルツ氏、WEF 成長サミット、2023 年


WEF Growth Summit 2023 の「 成長ホットスポット: 生成型 AI 革命の活用」に関するパネルディスカッションでマイクロソフトのマイケル シュワルツ氏は、AI に関しては、何か悪いことが起こるまで規制しないのが最善であると主張しました。潜在的により大きな利益を抑制します。


はい、AI が悪者に利用されるだろうと私は確信しています。そして、はい、それは実際の損害を引き起こすでしょう。そして、はい、私たちは非常に注意深く、非常に警戒しなければなりません」とシュワルツ氏はWEF委員会に語った。


生成型 AI の規制について尋ねられたとき、マイクロソフトの首席エコノミストは次のように説明しました。

「AIの規制に関して私たちはどのような哲学を持っているべきでしょうか?明らかに、私たちはそれを規制する必要があり、そこでの私の哲学は非常にシンプルだと思います。


赤ちゃんをお風呂のお湯と一緒に捨てないようにAIを規制すべきです

「ですから、規制は抽象的な原則に基づくものではないと思います。


「経済学者として、私は効率性を好みます。そのため、まず、想像上のシナリオではなく、実際に起こっている何らかの重大な害が確認されるまで、AI を規制すべきではありません。」


ブルームバーグによると、2023年1月23日、 MicrosoftはChatGPTの開発者であるOpenAIとの提携を拡大し、「Microsoftは2019年にOpenAIに10億ドルを注ぎ込み、2021年にはさらに追加投資」に加えてさらに100億ドルを投資したという



この記事は元々、ティム・ヒンチリフによってThe Sociable に掲載されたものです。