paint-brush
De theorie van het dode internet: de donkere kant van AI-automatiseringdoor@antonvoichenkovokrug
Nieuwe geschiedenis

De theorie van het dode internet: de donkere kant van AI-automatisering

Te lang; Lezen

featured image - De theorie van het dode internet: de donkere kant van AI-automatisering
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

Het internet dat we kenden, sterft — of verandert in ieder geval onherkenbaar. Met de opkomst van kunstmatige intelligentie wordt de digitale ruimte een plek waar de grenzen tussen mensen en machines vervagen en interacties minder authentiek en minder "menselijk" worden. De "Dead Internet Theory", hoewel vaak gezien als een samenzweringstheorie, vat verrassend genoeg een aantal van deze veranderingen nauwkeurig samen. Wat als we al in een web leven waar de meeste content niet door mensen wordt gemaakt, maar door algoritmen? En wat betekent dat voor de toekomst?

Content voor Content: AI Schrijven voor AI

Als je geboren bent vóór 2010, laten we dan even stilstaan bij hoe het internet er tien jaar geleden uitzag. Forums, blogs en vroege sociale netwerken — ze waren allemaal afhankelijk van menselijke deelname. Mensen schreven artikelen, deelden hun gedachten en debatteerden in de reacties. Het was een levendig ecosysteem van ideeën. Maar met de ontwikkeling van AI-technologie begon dit ecosysteem te veranderen. Tegenwoordig wordt content niet langer alleen door mensen gemaakt. Teksten, nieuwsartikelen en berichten op sociale media — ze kunnen nu allemaal door machines worden gegenereerd.

AI kan nu artikelen schrijven die bijna niet te onderscheiden zijn van die welke door mensen zijn geschreven. Je hebt waarschijnlijk een aantal van deze artikelen gelezen zonder dat je het doorhad. Zou dit artikel zelf geschreven kunnen zijn door een AI-service? Een nieuwsartikel? Een bericht op sociale media? Een reactie onder een video? Dit alles zou het werk kunnen zijn — of beter gezegd, de "code" — van een algoritme.


Volgens onderzoek zijn ongeveer 15% van de Twitter-accounts bots, die de illusie van echte gebruikersactiviteit creëren. Dit geldt met name voor politieke discussies, waar AI wordt gebruikt om bepaalde standpunten te promoten En dat is alleen wat we kunnen identificeren. Het werkelijke percentage kan veel hoger liggen.


Hoe zit het met andere sociale netwerken, zoals LinkedIn en Facebook? Helaas is de realiteit nog zorgwekkender. We kunnen de ware omvang van dit probleem niet volledig meten, omdat het gewoonweg onmogelijk is om het volledig te bestuderen. Sociale media zijn de plek waar het "dode internet" zich het duidelijkst laat zien. Denk eens aan de laatste keer dat je een like of een reactie op je bericht kreeg. Weet je zeker dat het van een echt persoon was? Onderzoek door Emilio Ferrara ontdekte dat ongeveer 19% van de politieke berichten op Twitter tijdens de Amerikaanse verkiezingen van 2016 door bots werden gemaakt. Deze bots kunnen informatie verspreiden, op opmerkingen reageren en zelfs discussies aangaan, waardoor de illusie van echte menselijke interactie ontstaat.


Daarnaast gebruiken bedrijven automatisering om hun social media pagina's te beheren. AI schrijft berichten, volgt de betrokkenheid en verbetert de content. Tegelijkertijd gebruiken gewone gebruikers ook AI om hun accounts te automatiseren. Dit betekent dat we zelf helpen deze situatie te creëren. Als gevolg hiervan worden social media een plek waar algoritmes activiteit nabootsen en echte menselijke communicatie verdwijnt.


AI-modellen maken niet alleen berichten, ze leren van elke interactie die je hebt. Een like, een opmerking of zelfs maar een weergave levert gegevens op die AI gebruikt om te begrijpen wat je interesseert. Algoritmen analyseren welke onderwerpen, koppen, afbeeldingen of zinnen de meeste betrokkenheid krijgen. Met elke leercyclus worden ze beter in het maken van content die is ontworpen om je aandacht te trekken. Dit verandert content in een tool die je niet alleen informeert, maar ook actief je emoties, reacties en gedrag manipuleert. Het houdt je langer op het platform of beïnvloedt je beslissingen, vaak zonder dat je het doorhebt.


Het creëren van door AI gegenereerde content om politiek te beïnvloeden is een van de gevaarlijkste kanten van internetautomatisering. Deze technologieën kunnen nepnieuws produceren, de publieke opinie manipuleren met bots en zelfs nepvideo's of audio maken van politici die valse uitspraken doen.

Het probleem wordt erger omdat het bijna onmogelijk wordt om nep-content van echte content te onderscheiden, vooral voor gewone gebruikers. Zonder duidelijke tools om nep-content te detecteren, is de maatschappij kwetsbaar voor manipulatie. Dit kan het vertrouwen in democratische processen en instellingen verzwakken, wat ernstige uitdagingen creëert voor vrije verkiezingen en politieke transparantie.

Case Study: AI in Recruitment – De Race van Machines

Het hiringproces is een ander slagveld geworden voor AI-systemen. Moderne werkgevers gebruiken steeds vaker algoritmes om cv's en sollicitatiebrieven te scannen. Deze systemen zoeken naar trefwoorden, analyseren de schrijfstijl en controleren of de ervaring relevant is — allemaal automatisch. Volgens een artikel van Peter Cappelli in de Harvard Business Review Ongeveer 75% van de cv's komt nooit bij een recruiter terecht, omdat AI ze eruit filtert.


Maar het spel eindigt daar niet. Werkzoekenden, die weten hoe deze algoritmes werken, wenden zich ook tot AI-tools om de "perfecte" documenten te creëren. Deze tools genereren cv's die zijn ontworpen om AI-filters te passeren en ideale sollicitatiebrieven te schrijven.


Als gevolg daarvan belanden we in een situatie waarin één AI de documenten maakt en een andere AI ze filtert. Mensen worden buiten beschouwing gelaten — zij zijn slechts toeschouwers die een strijd tussen algoritmes aanschouwen.

\Visuele inhoud: realiteit of illusie?

AI heeft niet alleen geleerd om tekst te schrijven, maar ook om afbeeldingen te creëren. Diensten zoals This Person Does Not Exist kan realistische beelden genereren van mensen en objecten die niet bestaan . Op het eerste gezicht lijkt dit misschien gewoon een tool, maar het roept serieuze vragen op. Waar trekken we de grens tussen echt en nep als een door AI gegenereerde afbeelding er precies zo uitziet als een echte foto?


Sociale media, waar beelden een grote rol spelen, worden nu overspoeld met dit soort 'kunstmatige kunst'. Mensen plaatsen door AI gegenereerde afbeeldingen om reacties te krijgen, soms van een publiek dat ook uit bots kan bestaan.


Deze voorbeelden laten zien dat het internet steeds minder een plek voor mensen wordt. Het verandert in een ruimte waar AI met AI interageert. Eén algoritme creëert content, een ander analyseert het, een derde filtert het en een vierde reageert op opmerkingen. De menselijke betrokkenheid neemt af en communicatie wordt slechts een reeks signalen die tussen machines worden uitgewisseld.


Dit klinkt misschien als vooruitgang, maar er zijn verborgen problemen. Als machines een groot deel van de online content creëren, neemt het vertrouwen in informatie af. We leven al in een wereld waarin het moeilijk is om het verschil te zien tussen waarheid en manipulatie. Door communicatie te automatiseren, vooral op sociale media, voelt het internet nep aan. Mensen verliezen het vermogen om online echte relaties aan te gaan.


Wanneer AI opmerkingen genereert die de publieke opinie beïnvloeden, staan we voor een diep ethisch dilemma. Wie is verantwoordelijk voor deze acties? Het algoritme doet gewoon zijn werk. Is het de ontwikkelaar die de AI heeft gemaakt en getraind? Het bedrijf dat het op hun platform gebruikt? Of misschien niemand, aangezien AI geen vrije wil of moreel bewustzijn heeft? Dit gebrek aan duidelijkheid creëert risico's voor de samenleving. Manipulatieve door AI gegenereerde opmerkingen kunnen valse trends bevorderen, verkeerde informatie verspreiden of zelfs verkiezingen beïnvloeden. Totdat wetten en ethische normen deze technologieën inhalen, lopen we het risico in een wereld te leven waarin niemand verantwoordelijk wordt gehouden voor de invloed van AI, wat de deur opent voor misbruik.


De “Dead Internet Theory,” hoewel het begon als een complottheorie, begint minder absurd te lijken. We zien tekenen dat de menselijke betrokkenheid bij het creëren en consumeren van content afneemt, wat plaatsmaakt voor automatisering. Socialemediaplatforms staan vol met door AI gegenereerde content en gebruikersinteracties worden vaak aangepast of vervangen door bots. Dit verandert de aard van het internet en roept belangrijke vragen op over de toekomst ervan.


Om het internet ‘menselijk’ te houden, hebben we actie nodig op verschillende niveaus:


  1. Techbedrijven moeten meer verantwoordelijkheid nemen voor hoe ze AI gebruiken. Transparantie in algoritmes, tools om nepcontent te detecteren en ondersteuning voor echte interacties zouden prioriteiten moeten zijn. Bijvoorbeeld, het labelen van door AI gegenereerde content kan gebruikers helpen te weten met wie of wat ze interacteren.

  2. Gebruikers moeten betrokken en geïnformeerd blijven. Dit betekent het verbeteren van digitale geletterdheid, kritisch nadenken over informatie en begrijpen hoe algoritmes werken. We moeten leren om echt van nep te onderscheiden, te voorkomen dat we in manipulatieve content trappen en echte menselijke connecties online te onderhouden.

  3. Regulering en ethische richtlijnen zijn nodig om zowel gebruikers als bedrijven te beschermen. Het gaat hierbij niet alleen om gegevensbescherming, maar ook om het controleren van hoe AI wordt gebruikt in sociale en politieke processen. Regulering moet ervoor zorgen dat het internet een menselijke ruimte blijft, misbruik voorkomen en gelijke toegang tot technologie bevorderen.


Maar dat is niet genoeg. Om het internet 'menselijk' te houden, moet het weer een plek worden voor creativiteit, open dialoog en echte communicatie. We moeten gemeenschappen ondersteunen die gebaseerd zijn op eerlijkheid en authenticiteit, waar menselijke stemmen luider zijn dan algoritmes. Platformen die prioriteit geven aan mensen, niet alleen aan winst door gebruikers online te houden, kunnen een beter voorbeeld stellen.


Het internet leeft nog steeds. Maar de toekomst ervan hangt af van hoe we de technologie gebruiken die we creëren. Als we blindelings het pad van volledige automatisering volgen, lopen we het risico te verliezen wat het internet werkelijk waardevol maakt: menselijke aanwezigheid. Maar als we technologie zorgvuldig in evenwicht brengen met menselijke waarden, kunnen we het internet terugbrengen naar zijn oorspronkelijke doel: een ruimte voor mensen, niet voor machines.

L O A D I N G
. . . comments & more!

About Author

Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
Anton Voichenko (aka Anton Vokrug)@antonvoichenkovokrug
Tech Speaker, AI-researcher, Blockchain Expert, Entrapreneur, Philosopher

LABELS

DIT ARTIKEL WERD GEPRESENTEERD IN...