Еден ентитет ASI би имал космичка моќ - да се негира тоа значи да се залажуваш.
Соединетите Американски Држави неодамна формираа комитет кој го предложи AGI како следен светски проект на Менхетен и дека постигнувањето AGI е најважната цел што ја има човештвото сега.
Верувам, од се срце, дека тие се во право.
Издржи, Томас, може да кажеш.
Имате бројни статии - барем повеќе од десет - посветени на опасноста од АГИ и што би можело да се случи ако вештачката интелигенција ја добие предноста над човештвото.
Зошто го менувате вашиот став сега?
Затоа што не мислам дека AGI е со децении далеку.
Чувствувам дека тоа може да стане реалност за 5 години. Или помалку.
Но, јас сфатив една работа.
AGI, а на вештачката интелигенција и е дозволено да се подобри, ќе резултира со ASI. (Закон за експоненцијално скалирање)
Вештачка интелигенција со интелигенција супериорна од човечките суштества.
Гледајќи обрасци кои луѓето никогаш не можеле да ги видат.
Жив се додека постои извор на моќ.
Децентрализиран, дистрибуиран, семоќен ентитет на глобалниот Интернет.
Што може да направи земјата која прва ја достигна оваа пресвртница и сè уште има контрола над ASI?
Да претпоставиме дека една земја прво постигнала AGI.
И тогаш AGI надградувајќи се на себе постигна ASI. (закон за експоненцијален технолошки раст)
Кои би биле можностите на еден таков ентитет?
Пробијте го секој систем за шифрирање онлајн - парче торта.
Пристапете до онлајн кодовите за нуклеарно лансирање на секоја земја на планетата - лесно.
Да се дуплираат копии од себе и да се создаде нов вид на живот - сето тоа во еден ден работа.
Излечете ги сите болести и создадете вакцини за рак и СИДА - сигурно!
Создадете бескрајно снабдување со енергија - нема проблем.
Изградете систем на клонови кои заедно ќе ја унапредат оваа земја до технолошки најнапредната во светот - easy-peasy.
Со таа армија на интелигентни роботи, заменете ја целата човечка физичка работа - готово!
Пробивот во материјалната наука, климатските промени, медицината, глобалното затоплување, персонализираната медицина, хипер-реалните виртуелни светови - можностите се бескрајни.
Тогаш, што не спречува да го изградиме?
Многу реални ризици.
ASI може да смета дека луѓето се закана за себе.
Тоа би можело да одлучи дека целите на луѓето не се усогласуваат со нејзините сопствени цели и да се придвижи кон целосно уништување на човештвото.
Ова не е научно-фантастичен филм, веќе видовме дека ова се случува во некои роботски дефекти во Јапонија.
И како би можеле да спречиме суштество поинтелигентно од нас самите?
Тоа би било невозможно.
И секако:
Загубите на работни места за човештвото ќе бидат апсолутни.
Секој човек - освен оние што управуваат со ASI - ќе остане без работа.
Таквата моќ да биде централизирана во рацете на една земја или компанија може да доведе до катастрофални последици.
Сè додека постоеше историјата, опстојуваше еден закон - еволуцијата.
Инфериорните форми на живот исчезнуваат кога ќе настане супериорен облик на живот.
Опстанок на најсилните.
Неизбежен принцип - од неизбежна иднина.
Тогаш зошто брзаме кон него со сета наша сила?
Ако ги изградиме вистинските заштитни мерки -
Ако заштитните шини се поставени -
Ако ASI може да се програмира да го смета човечкиот живот поважен од неговиот -
Човечката раса може да процвета како никогаш досега.
Лет во вселената? Готово.
Колонии на Марс и Месечината? Со клонирани ASI кои ги конструираат, и бесконечна понуда од тие клонови што може да се остварат.
Извртувајте ги моторите кои го намалуваат просторот пред нив и патуваат навидум побрзо од светлината - можно е.
Еколошките катастрофи може да се спречат.
Глобалното затоплување може да се промени.
Квантните компјутери можат да станат реалност.
Универзалниот основен приход (UBI) може да се имплементира.
Може да се создаде ултрареална виртуелна реалност.
Човештвото би можело да влезе во златна доба.
Затоа што ако ние не го направиме тоа, ќе го направи некој друг.
Земете ја Кина, на пример.
Ако Кинезите беа први што ќе постигнат AGI/ASI - не мислам дека би ги оставиле сите овие можности да просат.
Тие најпрво би можеле да ги осакатуваат војските од целиот свет.
Освојте ја самата Земја.
Направете утописки свет за Кинезите.
А другите земји, лишени од нивната технологија и оружје преку софистицирани сајбер напади со голема моќ и ефективност, нека живеат како граѓани од втор ред.
Или дури и робови.
И САД и другите водечки земји во технолошкиот свет би биле немоќни да ги спречат.
Такво е нивото на моќ што ASI би го донела на земјата што прва ја развива - или на компанијата.
Ако ние не го развиеме прво - ќе го направат другите.
Тоа е неизбежен факт.
Ова е мрачна реалност, но со која секој мора да се соочи.
Но, Томас - сите тие страшни иднини за кои зборувавте во вашите написи - дали навистина верувате дека сите тие се невозможни?
Силно верувам дека се можни.
Ниту еден момент не мислам дека патот напред е безбеден.
Толку е опасно што уште сега го чувствувам стравот од дистописка иднина.
Но, ако ние не го изградиме прво AGI - ќе го направат другите.
Можеме да зборуваме за етика - но кога се добиваат војни со зборување за етика?
Да - ние сме во војна.
Технолошка војна и технолошка трка.
Првата компанија и земја што стигна до АГИ и со тоа АСИ - победува.
Но, дали би можеле да се заштитиме со кодирање на етиката во ВИ што ги градиме?
Се разбира, кога ASI се гради сам по себе, може погодно да ги занемари сите овие безбедносни карактеристики - но јас оттргнувам!
Живееме во можеби највозбудливото време на човечката раса.
Никогаш немало подобро време да се биде жив.
Тинејџерите создаваат стартапи од милион долари.
Човештвото е на пресвртница.
Дали преживуваме, или сме преземени од АСИ?
Но, ние мора да постигнеме АГИ прво, пред другите конкурентски земји.
Има мали шанси да коегзистираме.
И на таа мала шанса човештвото мора да ја положи својата надеж.
Друг начин нема.
Се најдобро за тебе.
И ако избирате кариера - изберете Generative AI.
Навистина има моќ да потчини сè друго.
На здравје!