paint-brush
Teorija mrtvog interneta: Tamna strana automatizacije umjetne inteligencijepo@antonvoichenkovokrug
Nova povijest

Teorija mrtvog interneta: Tamna strana automatizacije umjetne inteligencije

Predugo; Čitati

featured image - Teorija mrtvog interneta: Tamna strana automatizacije umjetne inteligencije
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

Internet kakav smo poznavali umire - ili se barem mijenja do neprepoznatljivosti. S porastom umjetne inteligencije, digitalni prostor postaje mjesto gdje su granice između ljudi i strojeva zamagljene, a interakcije postaju manje autentične i manje "ljudske". "Teorija mrtvog interneta", iako se često smatra teorijom zavjere, iznenađujuće točno bilježi neke od ovih promjena. Što ako već živimo na webu gdje većinu sadržaja ne stvaraju ljudi, već algoritmi? I što to znači za budućnost?

Sadržaj za sadržaj: AI pisanje za AI

Ako ste rođeni prije 2010., uzmite trenutak da se prisjetite kakav je bio internet prije samo deset godina. Forumi, blogovi i prve društvene mreže — sve se to oslanjalo na ljudsko sudjelovanje. Ljudi su pisali članke, dijelili svoja razmišljanja i raspravljali u komentarima. Bio je to živahan ekosustav ideja. No s razvojem AI tehnologije ovaj se ekosustav počeo mijenjati. Danas sadržaj više ne stvaraju samo ljudi. Tekstovi, novinski članci i postovi na društvenim mrežama — sve to sada mogu generirati strojevi.

AI sada može pisati članke koje je gotovo nemoguće razlikovati od onih koje su napisali ljudi. Vjerojatno ste pročitali neke od ovih članaka, a da toga niste bili svjesni. Je li ovaj članak mogao napisati AI servis? Novinski članak? Objava na društvenim mrežama? Komentar ispod videa? Sve bi to moglo biti djelo - ili bolje rečeno, "kod" - algoritma.


Prema istraživanju, oko 15% Twitter računa su botovi, stvarajući iluziju stvarne aktivnosti korisnika. To posebno vrijedi u političkim raspravama, gdje AI se koristi za promicanje određenih stajališta . I to je samo ono što možemo identificirati — stvarni postotak bi mogao biti puno veći.


Što je s drugim društvenim mrežama, poput LinkedIna i Facebooka? Nažalost, stvarnost je još više zabrinjavajuća. Ne možemo u potpunosti izmjeriti stvarne razmjere ovog problema jer ga je jednostavno nemoguće u potpunosti proučiti. Društveni mediji su ono gdje se "mrtvi internet" najjasnije pokazuje. Razmislite o tome kada ste zadnji put dobili lajk ili komentar na svoju objavu. Jeste li sigurni da je to od stvarne osobe? Istraživanje Emilija Ferrare otkrili su da su oko 19% političkih objava na Twitteru tijekom američkih izbora 2016. objavili botovi. Ovi botovi mogu širiti informacije, odgovarati na komentare, pa čak i sudjelovati u raspravama, stvarajući iluziju stvarne ljudske interakcije.


Osim toga, tvrtke koriste automatizaciju za upravljanje svojim stranicama na društvenim mrežama. AI piše postove, prati angažman i poboljšava sadržaj. U isto vrijeme, redovni korisnici također koriste AI za automatizaciju svojih računa. To znači da mi sami pomažemo stvoriti ovu situaciju. Kao rezultat toga, društveni mediji postaju mjesto gdje algoritmi oponašaju aktivnosti, a prava ljudska komunikacija nestaje.


AI modeli ne stvaraju samo objave – oni uče iz svake vaše interakcije. Lajk, komentar ili čak samo prikaz pružaju podatke koje umjetna inteligencija koristi kako bi shvatila što vas zanima. Algoritmi analiziraju koje teme, naslovi, slike ili fraze imaju najveći angažman. Sa svakim ciklusom učenja sve su bolji u stvaranju sadržaja osmišljenog da privuče vašu pozornost. Ovo sadržaj pretvara u alat koji vas ne samo informira, već aktivno manipulira vašim emocijama, reakcijama i ponašanjem. Zadržava vas dulje na platformi ili utječe na vaše odluke, često a da toga niste svjesni.


Stvaranje sadržaja generiranog umjetnom inteligencijom radi utjecaja na politiku jedna je od najopasnijih strana internetske automatizacije. Ove tehnologije mogu proizvesti lažne vijesti, manipulirati javnim mnijenjem pomoću botova, pa čak i stvoriti lažne videozapise ili audio zapise političara koji daju lažne izjave.

Problem se pogoršava jer postaje gotovo nemoguće razlikovati lažni sadržaj od stvarnog sadržaja, posebno za obične korisnike. Bez jasnih alata za otkrivanje lažnog sadržaja, društvo je ranjivo na manipulaciju. To može oslabiti povjerenje u demokratske procese i institucije, stvarajući ozbiljne izazove slobodnim izborima i političkoj transparentnosti.

Studija slučaja: AI u zapošljavanju – utrka strojeva

Proces zapošljavanja postao je još jedno bojno polje za AI sustave. Moderni poslodavci sve više koriste algoritme za skeniranje životopisa i propratnih pisama. Ovi sustavi traže ključne riječi, analiziraju stil pisanja i provjeravaju je li iskustvo relevantno — sve automatski. Prema članku Petera Cappellija u Harvard Business Reviewu , oko 75% životopisa nikad niti ne dospije u oči regrutu jer ih AI filtrira.


Ali igra tu ne završava. Tražeći posao, znajući kako ovi algoritmi rade, također se okreću AI alatima za izradu "savršenih" dokumenata. Ovi alati generiraju životopise dizajnirane da prođu AI filtere i napišu idealna propratna pisma.


Kao rezultat toga, imamo situaciju u kojoj jedna umjetna inteligencija stvara dokumente, a druga ih filtrira. Ljudi su izostavljeni iz jednadžbe — oni su samo gledatelji koji gledaju bitku algoritama.

\Vizualni sadržaj: stvarnost ili iluzija?

AI je naučio ne samo pisati tekst, već i stvarati slike. Usluge poput This Person Does Not Exist može stvoriti realne slike ljudi i predmeta koji ne postoje . Na prvi pogled ovo se može činiti kao samo još jedan alat, ali postavlja ozbiljna pitanja. Gdje povući granicu između stvarnog i lažnog ako slika generirana umjetnom inteligencijom izgleda točno kao prava fotografija?


Društveni mediji, gdje vizualni elementi igraju veliku ulogu, sada se pune ovom vrstom "umjetne umjetnosti". Ljudi objavljuju slike koje je generirala umjetna inteligencija kako bi dobili reakcije, ponekad od publike koju također mogu činiti botovi.


Ovi primjeri pokazuju da je internet sve manje mjesto za ljude. Pretvara se u prostor u kojem AI komunicira s AI-jem. Jedan algoritam stvara sadržaj, drugi ga analizira, treći filtrira, a četvrti odgovara na komentare. Ljudska uključenost se smanjuje, a komunikacija postaje samo niz signala koji se razmjenjuju između strojeva.


Ovo može zvučati kao napredak, ali postoje skriveni problemi. Ako strojevi stvaraju veliki dio online sadržaja, povjerenje u informacije se smanjuje. Već živimo u svijetu u kojem je teško razlikovati istinu od manipulacije. Automatizirana komunikacija, posebice na društvenim mrežama, čini internet lažnim. Ljudi gube sposobnost uspostavljanja istinskih odnosa na internetu.


Kada AI stvara komentare koji utječu na javno mnijenje, suočavamo se s dubokom etičkom dilemom. Tko je odgovoran za te radnje? Algoritam samo radi svoj posao. Je li programer taj koji je stvorio i trenirao AI? Tvrtka koja ga koristi na svojoj platformi? Ili možda nitko, budući da umjetna inteligencija nema slobodnu volju ili moralnu svijest? Ovaj nedostatak jasnoće stvara rizike za društvo. Manipulativni komentari generirani umjetnom inteligencijom mogu promovirati lažne trendove, širiti dezinformacije ili čak utjecati na izbore. Sve dok zakoni i etički standardi ne uhvate korak s ovim tehnologijama, u opasnosti smo da živimo u svijetu u kojem se nitko ne smatra odgovornim za utjecaj umjetne inteligencije, što otvara vrata zlouporabi.


“Teorija mrtvog interneta”, iako je započela kao teorija zavjere, počinje se činiti manje apsurdnom. Vidimo znakove da se ljudska uključenost u stvaranje i konzumiranje sadržaja smanjuje, ustupajući mjesto automatizaciji. Platforme društvenih medija prepune su sadržaja generiranog umjetnom inteligencijom, a interakcije korisnika često su modificirane ili zamijenjene botovima. Ovo mijenja prirodu interneta i postavlja važna pitanja o njegovoj budućnosti.


Kako bismo internet održali "ljudskim", potrebno nam je djelovanje na nekoliko razina:


  1. Tehnološke tvrtke moraju preuzeti više odgovornosti za način na koji koriste AI. Transparentnost algoritama, alati za otkrivanje lažnog sadržaja i podrška za stvarne interakcije trebali bi biti prioriteti. Na primjer, označavanje sadržaja generiranog umjetnom inteligencijom može pomoći korisnicima da znaju s kim ili s čime su u interakciji.

  2. Korisnici trebaju ostati uključeni i informirani. To znači poboljšanje digitalne pismenosti, kritičko razmišljanje o informacijama i razumijevanje načina rada algoritama. Trebali bismo naučiti razlikovati stvarno od lažnog, izbjegavati nasjedanje na manipulativni sadržaj i održavati istinske ljudske veze na internetu.

  3. Propisi i etičke smjernice nužni su za zaštitu korisnika i tvrtki. Ovdje se ne radi samo o zaštiti podataka – radi se i o kontroli načina na koji se AI koristi u društvenim i političkim procesima. Regulacija bi trebala osigurati da internet ostane ljudski prostor, spriječiti zlouporabu i promicati jednak pristup tehnologiji.


Ali to nije dovoljno. Da bi internet ostao "ljudski", treba ponovno postati mjesto za kreativnost, otvoreni dijalog i pravu komunikaciju. Trebali bismo podržati zajednice temeljene na poštenju i autentičnosti, u kojima su ljudski glasovi glasniji od algoritama. Platforme kojima su prioritet ljudi, a ne samo profit od zadržavanja korisnika na mreži, mogu dati bolji primjer.


Internet je još uvijek živ. Ali njegova budućnost ovisi o tome kako koristimo tehnologiju koju stvaramo. Ako slijepo slijedimo put potpune automatizacije, riskiramo gubitak onoga što internet čini uistinu vrijednim: ljudske prisutnosti. Ali ako pažljivo uravnotežimo tehnologiju s ljudskim vrijednostima, možemo vratiti internet njegovoj izvornoj namjeni - prostoru za ljude, a ne za strojeve.

L O A D I N G
. . . comments & more!

About Author

Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
Anton Voichenko (aka Anton Vokrug)@antonvoichenkovokrug
Tech Speaker, AI-researcher, Blockchain Expert, Entrapreneur, Philosopher

VIJESI OZNAKE

OVAJ ČLANAK JE PREDSTAVLJEN U...