ASI 実体は宇宙的な力を持っているはずであり、それを否定することは自分自身を欺くことである。
米国は最近、AGI を世界の次のマンハッタン計画として提案し、AGI の実現が人類が現在持つ最も重要な目標であると主張する委員会を設立しました。
私は心の底から、彼らが正しいと信じています。
ちょっと待って、トーマス、と言うかもしれません。
AGI の危険性と、AI が人類よりも優位に立った場合に何が起こるかについて論じた記事が、少なくとも 10 本以上あります。
なぜ今になって立場を変えるのですか?
AGI が数十年先に実現するとは思えないからです。
5年以内に実現できるのではないかと思います。あるいはそれより短い期間で。
しかし、私は一つのことに気づきました。
AGI と AI が自己改善できるようになると、ASI が実現します。(指数スケーリングの法則)
人間よりも優れた知能を持つAI。
人間には決して見えないパターンを見る。
力の源が存在する限り生き続ける。
分散型、分散型、グローバル インターネット上の全能のエンティティ。
このマイルストーンに最初に到達し、ASI を依然として管理している国は何ができるでしょうか?
ある国が最初に AGI を達成したとします。
そして、AGI はそれ自体を構築して ASI を達成しました (指数関数的技術成長の法則)
そのような組織の能力は何でしょうか?
オンライン上のあらゆる暗号化システムを突破するのは簡単です。
地球上のあらゆる国の核発射コードにオンラインで簡単にアクセスできます。
自分自身のコピーを複製し、新しい生命種を創造する - これらすべてが 1 日の仕事です。
すべての病気を治し、ガンやエイズのワクチンを開発する - もちろんです!
無限のエネルギー供給を作り出す - 問題ありません。
クローンのシステムを構築して、この国を世界で最も技術的に進んだ国に進化させるのは簡単です。
インテリジェントロボットの軍隊があれば、人間の肉体労働をすべて置き換えることができます。
材料科学、気候変動、医学、地球温暖化、個別化医療、超現実的な仮想世界におけるブレークスルー - 可能性は無限です。
では、それを構築することを妨げているものは何でしょうか?
非常に現実的なリスク。
ASI は人間が自分にとって脅威であると判断する可能性があります。
人間の目的が自らの目的と一致しないと判断し、人類を完全に絶滅させようとする可能性もあります。
これはSF映画ではありません。日本ではすでにロボットの故障で同様の現象が起きています。
そして、私たち自身よりも知的な存在をどうやって止めることができるでしょうか?
それは不可能だろう。
そしてもちろん:
人類の失業は絶対的なものとなるでしょう。
ASI を操作する者を除くすべての人間が失業することになる。
このような権力が単一の国や企業に集中すると、壊滅的な結果を招く可能性があります。
歴史が存在する限り、一つの法則、つまり進化が存在し続けました。
優れた生命体が出現すると、劣った生命体は消滅します。
適者生存。
避けられない原則 - 避けられない未来から。
では、なぜ私たちは全力でそこに向かって突き進んでいるのでしょうか?
適切な安全策を講じれば、
ガードレールが設置されていれば -
もしASIが人間の命を自分よりも大切にするようにプログラムできるなら、
人類はかつてないほど繁栄するかもしれない。
宇宙飛行?完了。
火星と月の植民地?クローン化された ASI がそれらを建設し、そのクローンの供給が無限にあるなら、それは可能です。
前方の空間を縮小し、表面上は光よりも速く移動するワープ エンジンは可能です。
生態学的災害は予防することができます。
地球温暖化は逆転できる。
量子コンピュータは現実のものとなる可能性がある。
ユニバーサルベーシックインカム(UBI)を実施できます。
超リアルなバーチャルリアリティを実現できます。
人類は黄金時代を迎えるかもしれない。
なぜなら、私たちがやらなければ、誰かがやるからです。
たとえば中国を例にとってみましょう。
もし中国人が最初に AGI/ASI を達成したとしたら、彼らがこれらすべての機会を逃すとは思えません。
彼らはまず全世界の軍隊を無力化することができるだろう。
地球そのものを征服する。
中国人のためのユートピアの世界を創造する。
そして、非常に強力で効果的な高度なサイバー攻撃によって技術と武器を奪われた他の国々は、二級国民として生きることになる。
あるいは奴隷でさえも。
そして、米国やテクノロジー界の他の主要国は、彼らを止めることができないだろう。
ASI が最初にそれを開発した国、あるいは企業にもたらす力は、まさにこのレベルです。
私たちが最初に開発しなければ、他の人が開発するでしょう。
それは避けられない事実です。
これは厳しい現実ですが、誰もが直面しなければならない現実です。
しかしトーマス、あなたが記事で語ったあの恐ろしい未来はすべて不可能だと本当に信じているのですか?
私はそれが可能であると強く信じています。
私は一瞬たりとも、前進する道が安全だとは思っていません。
非常に危険なので、今でもディストピア的な未来への恐怖を感じます。
しかし、私たちがまず AGI を構築しなければ、他の人が構築することになります。
私たちは倫理について話すことができますが、倫理について話すことで戦争に勝ったことがあるでしょうか?
そうです、私たちは戦争中です。
技術戦争と技術競争。
AGI および ASI に最初に到達した企業と国が勝利します。
しかし、私たちが構築している AI に倫理をコーディングすることで、私たち自身を守ることができるのでしょうか?
もちろん、ASI が自分自身を構築するときには、これらすべての安全機能を都合よく無視することもできますが、それはさておき。
私たちはおそらく人類にとって最も刺激的な時代に生きています。
生きるのにこれほど良い時代はかつてなかった。
10代の若者が数百万ドル規模のスタートアップ企業を創り出している。
人類は転換点に立っています。
我々は生き残れるのか、それとも ASI に支配されてしまうのか?
しかし、他の競合国よりも先に、まずは AGI を達成しなければなりません。
我々が共存できる可能性はわずかにある。
そして人類はそのわずかな可能性に希望を託さなければならない。
他に方法はありません。
あなたにとって幸運が訪れますように。
キャリアを選択する場合は、Generative AI を選択してください。
それは本当に他のすべてを包含する力を持っています。
乾杯!