Суб'ект ASI меў бы касмічную моц - адмаўляць яе - значыць падманваць сябе.
Нядаўна ЗША стварылі камітэт, які прапанаваў AGI у якасці наступнага манхэтэнскага праекта ў свеце і што дасягненне AGI з'яўляецца самай важнай мэтай чалавецтва ў цяперашні час.
Ад усяго сэрца веру, што яны маюць рацыю.
Трымайся, Томас, можна сказаць.
У вас ёсць мноства артыкулаў — прынамсі больш за дзесяць — прысвечаных небяспецы AGI і таму, што можа здарыцца, калі ІІ возьме верх над чалавецтвам.
Чаму вы зараз мяняеце сваю пазіцыю?
Таму што я не думаю, што AGI яшчэ праз дзесяцігоддзі.
Я адчуваю, што гэта можа стаць рэальнасцю праз 5 гадоў. Ці менш.
Але я зразумеў адну рэч.
AGI і AI, якія могуць удасканальвацца, прывядуць да ASI. (Закон экспанентнага маштабавання)
ШІ з інтэлектам, вышэйшым за чалавечы.
Бачыць шаблоны, якія людзі ніколі не маглі бачыць.
Жывы, пакуль існуе крыніца сілы.
Дэцэнтралізаваная, размеркаваная, усемагутная сутнасць у глабальным Інтэрнеце.
Што можа зрабіць краіна, якая першай дасягнула гэтай вехі і ўсё яшчэ кантралюе ASI?
Дапусцім, краіна дасягнула AGI першай.
І тады AGI, будуючы на сабе, дасягнуў ASI. (закон экспанентнага тэхналагічнага росту)
Якімі былі б магчымасці такой арганізацыі?
Узламаць кожную сістэму шыфравання онлайн - кавалак пірага.
Лёгка атрымаць доступ да кодаў запуску ядзернай зброі кожнай краіны планеты.
Дублюйце свае копіі і стварайце новы від жыцця - усё гэта за дзень працы.
Вылечыць усе хваробы і стварыць вакцыны ад раку і СНІДу - дакладна!
Стварыць бясконцы запас энергіі - не праблема.
Пабудуйце сістэму клонаў, якія б разам прасунулі гэтую краіну да самай тэхналагічна развітой у свеце - easy-peasy.
З гэтай арміяй разумных робатаў вы заменіце ўсю ручную працу людзей - зроблена!
Прарывы ў матэрыялазнаўстве, змяненне клімату, медыцына, глабальнае пацяпленне, персаналізаваная медыцына, гіперрэальныя віртуальныя светы - магчымасці бязмежныя.
Тады што перашкаджае нам пабудаваць?
Вельмі рэальныя рызыкі.
ASI можа палічыць, што людзі з'яўляюцца пагрозай для сябе.
Ён можа вырашыць, што мэты людзей не супадаюць з яго ўласнымі мэтамі, і перайсці да поўнага знішчэння чалавецтва.
Гэта не навукова-фантастычны фільм, мы ўжо бачылі гэта ў некаторых няспраўнасцях робатаў у Японіі.
І як мы маглі спыніць істоту, разумнейшую за нас саміх?
Гэта было б немагчыма.
І вядома:
Страты працоўных месцаў для чалавецтва будуць абсалютнымі.
Кожны чалавек - за выключэннем тых, хто кіруе ASI - застанецца без працы.
Цэнтралізацыя такой улады ў руках адной краіны або кампаніі можа прывесці да катастрафічных наступстваў.
Колькі існуе гісторыя, дзейнічае адзін закон - эвалюцыі.
Ніжэйшыя формы жыцця знікаюць, калі ўзнікае вышэйшая форма жыцця.
Выжыванне мацнейшага.
Непазбежны прынцып - з непазбежнай будучыні.
Тады чаму мы з усіх сіл імчымся да гэтага?
Калі мы пабудуем правільныя гарантыі -
Калі парэнчы на месцы -
Калі ASI можна запраграмаваць лічыць чалавечае жыццё больш важным, чым сваё ўласнае -
Чалавечая раса можа квітнець, як ніколі раней.
Касмічны палёт? Гатова.
Калоніі Марса і Месяца? З дапамогай кланаваных ASI, якія ствараюць іх, і бясконцай колькасці гэтых клонаў - магчыма.
Рухавікі дэфармацыі, якія скарачаюць прастору перад сабой і падарожнічаюць нібыта хутчэй, чым святло - магчыма.
Экалагічныя катастрофы можна прадухіліць.
Глабальнае пацяпленне можна звярнуць назад.
Квантавыя кампутары могуць стаць рэальнасцю.
Універсальны базавы даход (УБД) можа быць рэалізаваны.
Можна стварыць звышрэалістычную віртуальную рэальнасць.
Чалавецтва магло ўвайсці ў залаты век.
Бо калі мы гэтага не зробім, зробіць нехта іншы.
Возьмем Кітай, напрыклад.
Калі б кітайцы першымі дасягнулі AGI/ASI - я не думаю, што яны б адпусцілі ўсе гэтыя магчымасці на жабрацтва.
Яны маглі спачатку скалечыць вайскоўцы ўсяго свету.
Заваяваць саму Зямлю.
Стварыце ўтапічны свет для кітайцаў.
І няхай іншыя краіны, пазбаўленыя сваіх тэхналогій і зброі праз складаныя кібератакі вялікай магутнасці і эфектыўнасці, жывуць як грамадзяне другога гатунку.
Ці нават рабы.
І ЗША і іншыя вядучыя краіны тэхналагічнага свету былі б бяссільныя іх спыніць.
Такі ўзровень магутнасці, які ASI прынясе краіне, якая першай яго распрацуе, або кампаніі.
Калі мы не будзем развіваць яго першымі - зробяць іншыя.
Гэта непазбежны факт.
Гэта змрочная рэальнасць, але з якой кожны павінен сутыкнуцца.
Але Томас — усе тыя жудасныя будучыні, пра якія вы казалі ў сваіх артыкулах — вы сапраўды верыце, што ўсе яны немагчымыя?
Я цвёрда веру, што яны магчымыя.
Я ні на хвіліну не думаю, што шлях наперад бяспечны.
Гэта настолькі небяспечна, што я нават зараз адчуваю страх перад антыўтапічнай будучыняй.
Але калі мы не пабудуем AGI першымі - гэта зробяць іншыя.
Мы можам казаць пра этыку - але калі войны выйгравалі размовамі пра этыку?
Так - у нас вайна.
Тэхналагічная вайна і тэхналагічная гонка.
Першая кампанія і краіна, якая дасягне AGI і, такім чынам, ASI - выйграе.
Але ці можам мы абараніць сябе, закадзіраваўшы этыку ў штучны інтэлект, які мы ствараем?
Вядома, калі ASI стварае сябе, ён можа зручна занядбаць усімі гэтымі функцыямі бяспекі, але я адцягнуўся!
Мы жывем, магчыма, у самы захапляльны час чалавецтва.
Ніколі не было лепшага часу для жыцця.
Падлеткі ствараюць стартапы на мільёны долараў.
Чалавецтва знаходзіцца ў кропцы пералому.
Ці выжывем, ці нас захопіць ASI?
Але мы павінны спачатку дасягнуць AGI, перш чым іншыя краіны-канкурэнты.
Шанец, што мы можам суіснаваць, невялікі.
І на гэты невялікі шанец чалавецтва павінна ўскладаць надзею.
Іншага шляху няма.
Усяго найлепшага вам.
І калі вы выбіраеце кар'еру - выбірайце Generative AI.
У яго сапраўды ёсць сіла ўключыць у сябе ўсё астатняе.
На здароўе!