paint-brush
Waarom de race naar AGI het beslissende moment voor de mensheid isdoor@thomascherickal
Nieuwe geschiedenis

Waarom de race naar AGI het beslissende moment voor de mensheid is

door Thomas Cherickal6m2024/12/25
Read on Terminal Reader

Te lang; Lezen

De VS heeft AGI uitgeroepen tot een dringender initiatief dan de atoombom was. Dit is waarom ze gelijk hebben. Lees dit artikel voor een complete analyse van AGI, ASI en de gevolgen voor de mensheid.
featured image - Waarom de race naar AGI het beslissende moment voor de mensheid is
Thomas Cherickal HackerNoon profile picture
0-item


Een ASI-entiteit zou kosmische kracht hebben. Als je dat ontkent, bedrieg je jezelf.

Grotere kracht dan kernwapens

De Verenigde Staten hebben onlangs een commissie opgericht die AGI voorstelde als het volgende Manhattan-project ter wereld. Het bereiken van AGI is volgens hen het belangrijkste doel dat de mensheid nu heeft.


Ik geloof, uit de grond van mijn hart, dat ze gelijk hebben.


Wacht even, Thomas, zou je kunnen zeggen.


Je hebt talloze artikelen geschreven, minstens meer dan tien, die gewijd zijn aan het gevaar van AGI en wat er zou kunnen gebeuren als AI de overhand krijgt over de mensheid.


Waarom verandert u nu uw standpunt?


Omdat ik niet denk dat AGI nog tientallen jaren op zich zal laten wachten.


Ik denk dat het binnen 5 jaar werkelijkheid kan worden. Of eerder.


Maar één ding heb ik wel begrepen.


AGI, en AI die zichzelf mag verbeteren, zal resulteren in ASI. (Wet van exponentiële schaalvergroting)


Een AI met een intelligentie die superieur is aan die van de mens.


Patronen zien die mensen nooit zouden kunnen zien.


Zolang er een energiebron bestaat, leef ik.


Gedecentraliseerd, gedistribueerd, een almachtige entiteit op het wereldwijde internet.


Wat kan het land dat als eerste deze mijlpaal bereikt en nog steeds de controle heeft over de ASI doen?


De gevolgen van het bereiken van ASI


Zou een AI die beter kan denken dan een mens er menselijk uit willen zien?


Stel dat een land als eerste AGI bereikt.


En toen bouwde AGI voort op zichzelf en bereikte ASI. (de wet van exponentiële technologische groei)


Wat zouden de mogelijkheden van een dergelijke entiteit zijn?


Doorbreek elk encryptiesysteem online - een fluitje van een cent.


Krijg eenvoudig online toegang tot de nucleaire lanceercodes van elk land ter wereld.


Kopieën van zichzelf maken en een nieuwe levenssoort creëren: dat is allemaal dagelijkse kost.


Genees alle ziektes en ontwikkel vaccins tegen kanker en aids. Dat is zeker mogelijk!


Creëer een eindeloze energievoorraad - geen probleem.


Bouw een systeem van klonen die samen dit land technologisch gezien tot het meest geavanceerde land ter wereld kunnen maken. Een fluitje van een cent.


Met dat leger van intelligente robots vervangt u alle menselijke handmatige arbeid - klaar!


Doorbraken in materiaalkunde, klimaatverandering, geneeskunde, opwarming van de aarde, gepersonaliseerde geneeskunde, hyperrealistische virtuele werelden - de mogelijkheden zijn eindeloos.


Wat houdt ons dan tegen om het te bouwen?


De zeer reële risico's.


De ongelooflijke risico's van ASI

ASI levert een zeer somber beeld op, tenzij er met de grootste voorzichtigheid mee wordt omgegaan.


Een ASI zou kunnen oordelen dat mensen een bedreiging voor zichzelf vormen.


Het zou kunnen besluiten dat de doelstellingen van de mens niet overeenkomen met zijn eigen doelstellingen en overgaan tot de volledige uitroeiing van de mensheid.


Dit is geen sciencefictionfilm. We hebben dit al eerder gezien bij enkele robotstoringen in Japan.


En hoe kunnen we een wezen stoppen dat intelligenter is dan wijzelf?


Dat zou onmogelijk zijn.


En natuurlijk:


Het banenverlies voor de mensheid zal absoluut zijn.


Alle mensen, behalve degenen die de ASI bedienen, zullen hun baan verliezen.


Als dergelijke macht in de handen van één land of bedrijf wordt gecentraliseerd, kan dat rampzalige gevolgen hebben.


Zolang de geschiedenis bestaat, geldt er één wet: evolutie.


De inferieure levensvormen verdwijnen wanneer er een superieure levensvorm ontstaat.


Het recht van de sterkste.


Een onontkoombaar principe - uit een onontkoombare toekomst.


Waarom rennen we er dan met al onze kracht naartoe?


De optimistische vooruitzichten

Ja, ASI kan, als het naast de mensheid kan bestaan, een utopische wereld creëren!


Als we de juiste waarborgen inbouwen -


Als de vangrails op hun plaats zitten -


Als de ASI geprogrammeerd kan worden om het menselijk leven belangrijker te vinden dan zijn eigen leven -


De mensheid zou kunnen floreren als nooit tevoren.


Ruimtevlucht? Klaar.


Kolonies van Mars en de Maan? Met gekloonde ASI's die ze bouwen, en een oneindige voorraad van die klonen - haalbaar.


Warpmotoren die de ruimte voor hen kleiner maken en ogenschijnlijk sneller dan het licht reizen - mogelijk.


Ecologische rampen kunnen worden voorkomen.


De opwarming van de aarde kan worden teruggedraaid.


Quantumcomputers kunnen werkelijkheid worden.


Universeel Basisinkomen (UBI) kan worden ingevoerd.


Er kan een ultrarealistische virtuele realiteit worden gecreëerd.


De mensheid zou een gouden tijdperk kunnen ingaan.


Maar de risico's zijn te hoog! Waarom moeten we dit doen?


Alles wat we tot nu toe hebben gezien, is nog maar het begin.


Want als wij het niet doen, doet iemand anders het wel.


Neem bijvoorbeeld China.


Als de Chinezen de eersten waren die AGI/ASI zouden verwezenlijken, denk ik niet dat ze al deze kansen zouden laten liggen.


Ze zouden eerst de legers van de hele wereld kunnen verlammen.


Verover de aarde zelf.


Creëer een utopische wereld voor de Chinezen.


En laat de andere landen, beroofd van hun technologie en wapens door geavanceerde cyberaanvallen van grote kracht en effectiviteit, maar leven als tweederangsburgers.


Of zelfs slaven.


En de VS en andere toonaangevende landen in de technologische wereld zijn machteloos om ze te stoppen.


Dat is de mate van macht die ASI zou opleveren voor het land dat het als eerste ontwikkelt, of voor het bedrijf zelf.


Als wij het niet als eerste ontwikkelen, doen anderen het wel.


Dat is een onontkoombaar feit.


Dit is een harde realiteit, maar wel een realiteit waarmee iedereen te maken krijgt.

Herhaling


De wereld in je hand houden...


Maar Thomas, al die vreselijke toekomsten waar je het in je artikelen over hebt, geloof je echt dat ze allemaal onmogelijk zijn?


Ik geloof er heilig in dat dit mogelijk is.


Ik geloof geen moment dat de weg voorwaarts veilig is.


Het is zo gevaarlijk dat ik nog steeds bang ben voor een dystopische toekomst.


Maar als wij niet eerst AGI bouwen, dan doen anderen dat wel.


We kunnen over ethiek praten, maar wanneer zijn er ooit oorlogen gewonnen door over ethiek te praten?


Ja, we zijn in oorlog.


Een technologische oorlog en een technologische race.


Het eerste bedrijf en land dat AGI en dus ASI bereikt, wint.


Maar kunnen we onszelf beschermen door ethiek te integreren in de AI's die we bouwen?


Bouw een veilige superintelligentie (geen belediging bedoeld, Ilya!)

SSI is een geweldige startup en ik heb het grootste respect voor Ilya Sutskever


  1. Zorgen voor afstemming met AI-doelstellingen en menselijke doelstellingen. Deze afstemming is essentieel voor de hele relatie.
  2. Beperking in sandboxes en misschien de AI nooit op internet loslaten totdat deze volledig is getest (althans, dat dachten we!).
  3. Governance-kaders en ethisch beleid waaraan elke ASI zich moet houden.
  4. Killswitches ingebouwd in elke ASI.
  5. De besturingssystemen van de ASI zouden bestuurd kunnen worden door een toezichthoudend systeem dat het menselijk bestaan boven het bestaan van de ASI stelt.


Natuurlijk zou de ASI bij de bouw ervan al deze veiligheidsvoorzieningen gemakkelijk kunnen negeren, maar ik dwaal af!


Conclusie

De toekomst is nu.

Wij leven in misschien wel de meest opwindende tijd voor de mensheid.


Er is nooit een betere tijd geweest om te leven.


Tieners richten startups op die miljoenen opleveren.


De mensheid bevindt zich op een keerpunt.


Overleven we, of worden we overgenomen door ASI?


Maar eerst moeten wij AGI bereiken, vóór andere concurrerende landen.


Er is een kleine kans dat we samen kunnen bestaan.


En op die kleine kans moet de mensheid haar hoop vestigen.


Er is geen andere manier.


Ik wens je het allerbeste.


En als u een carrière kiest, kies dan voor Generatieve AI.


Het heeft werkelijk de kracht om alles te overheersen.


Proost!

Ik hoop oprecht dat dit onze ASI-toekomst is.

L O A D I N G
. . . comments & more!

About Author

Thomas Cherickal HackerNoon profile picture
Thomas Cherickal@thomascherickal
Every Article Published Should Rank in the Top Ten in Google Search within 3 days @ 60 USD or a 50% price discount.

LABELS

DIT ARTIKEL WERD GEPRESENTEERD IN...