paint-brush
Udanganyifu wa AI: Jinsi AI ya Kuzalisha Inatumiwa kwa Ulaghaikwa@truptibavalatti
694 usomaji
694 usomaji

Udanganyifu wa AI: Jinsi AI ya Kuzalisha Inatumiwa kwa Ulaghai

kwa Trupti Bavalatti7m2024/10/22
Read on Terminal Reader

Ndefu sana; Kusoma

AI ya Kuzalisha, huku ikitoa uwezo wa ajabu, inazidi kutumiwa kwa madhumuni mabaya kama vile video bandia za kina, ulaghai wa kifedha na habari potofu. Walaghai wanatumia AI kuiga watu binafsi, kuunda habari za uwongo, kudanganya sauti na hata kutoa maudhui yasiyo ya kibali. Hili ni tishio kubwa, hasa katika maeneo muhimu kama vile uchaguzi, usalama wa mtandaoni na mitandao ya kijamii. Makala yanaangazia mifano mbalimbali ya AI generative inayotumiwa kwa ulaghai na hutoa vidokezo kuhusu jinsi ya kujilinda kutokana na ulaghai huu unaoendeshwa na AI. Hatua za uhamasishaji na usalama makini ni muhimu ili kulinda dhidi ya matishio haya yanayoendelea.
featured image - Udanganyifu wa AI: Jinsi AI ya Kuzalisha Inatumiwa kwa Ulaghai
Trupti Bavalatti HackerNoon profile picture


Teknolojia ya Uzalishaji wa AI ambayo inaweza kutumika kuunda maudhui mapya kama vile maandishi, picha, sauti, na hata video, kama vile binadamu angefanya. Teknolojia hii imekuwa maarufu na kuenea sana. Ripoti kutoka Europol inatabiri kuwa 90% ya maudhui ya mtandaoni yanaweza kuzalishwa na AI ndani ya miaka michache. Walakini, AI ya Kuzalisha ni upanga wenye makali kuwili. Kwa upande mmoja, AI ya Kuzalisha inashikilia uwezo mkubwa katika sekta mbalimbali. Inaweza kuboresha huduma kwa wateja kupitia chatbots za akili, kusaidia katika tasnia za ubunifu kwa kutoa sanaa na muziki, na hata kusaidia katika utafiti wa matibabu kwa kuiga michakato changamano ya kibaolojia. Hata hivyo, teknolojia hiyo hiyo inayoendesha ubunifu huu inaweza pia kutumiwa na watendaji hasidi.


Hivi karibuni, kumekuwa na ongezeko la matumizi mabaya ya teknolojia hii kwa shughuli za ulaghai. Kadiri modeli za uzalishaji zinavyozidi kuwa za kisasa, ndivyo mbinu zinazotumiwa na watendaji wabaya kuwanyonya kwa madhumuni mabaya. Kuelewa njia mbalimbali ambazo AI generative inatumiwa vibaya ni muhimu kwa ajili ya kuendeleza ulinzi thabiti na kuhakikisha uadilifu na uaminifu wa mifumo ya kidijitali. Ingawa riwaya na njia zilizochanganyikiwa ambazo waigizaji wabaya wanatumia teknolojia hii zinazidi kuwa za kisasa zaidi, tutachunguza aina tofauti za ulaghai unaowezeshwa na AI ya uzalishaji ambayo tayari inaripotiwa kwa wingi na waathiriwa.

Taarifa potofu za Uchaguzi kwa kutumia Deepfakes

Mojawapo ya matumizi mashuhuri zaidi ya AI generative ni uundaji wa video feki za kina—miigizo ya watu yenye uhalisia mwingi lakini ghushi kabisa. Wanasiasa mashuhuri wanapolengwa, haswa katika muktadha wa matukio makubwa kama vile vita au uchaguzi, matokeo yanaweza kuwa makubwa. Deepfakes inaweza kusababisha hofu kuenea na kuharibu matukio muhimu. Kwa mfano, video bandia ya Rais wa Ukraine Volodymyr Zelensky akijisalimisha ilisambazwa wakati wa vita, na nchini India, kabla tu ya uchaguzi, video iliyothibitishwa ilionyesha kwa uwongo Waziri wa Mambo ya Ndani wa Muungano Amit Shah akidai kwamba kutoridhishwa kwa misingi ya tabaka kutakomeshwa, jambo ambalo lilizua mvutano kati ya jumuiya. Hivi majuzi, picha ghushi ya Donald Trump akikamatwa ilisambaa kwenye X (ona Mchoro 1).


Kielelezo cha 1: Picha ya uwongo ya Donald Trump akikamatwa ilisambaa kwenye mtandao wa X (zamani Twitter) mnamo 2023.


Ulaghai wa kifedha

Chatbots za hali ya juu zinazoendeshwa na AI zinaweza kuiga mazungumzo ya binadamu kwa usahihi wa ajabu. Walaghai huanzisha mashambulizi ya hadaa kwa kutumia gumzo za AI ili kuiga wawakilishi wa benki. Wateja hupokea simu na ujumbe kutoka kwa roboti hizi, ambazo huuliza kwa uhakika taarifa nyeti kwa kisingizio cha kutatua masuala ya akaunti. Watu wengi wasio na wasiwasi huwa wahasiriwa wa ulaghai huu, na kusababisha hasara kubwa ya kifedha. Walaghai wanaweza kutumia AI kutengeneza rekodi za sauti za kweli za watendaji ili kuidhinisha miamala ya ulaghai, mpango unaojulikana kama "Ulaghai Mkuu Mtendaji." Katika kisa mashuhuri , mfanyakazi wa kampuni ya kimataifa ya Hong Kong alilaghaiwa kulipa dola milioni 25 kwa walaghai wanaotumia teknolojia ya uwongo kujifanya afisa mkuu wa fedha wa kampuni hiyo katika simu ya video ya mkutano. Ulaghai huu hutumia uaminifu na mamlaka ya maafisa wa ngazi za juu, na kusababisha uharibifu mkubwa wa kifedha kwa biashara.

Habari za Uongo

Uzalishaji wa AI pia unaweza kutoa nakala za habari za uwongo, ambazo zinaweza kusambazwa kwa haraka kupitia mitandao ya kijamii. Wakati wa janga la COVID-19, nakala nyingi za habari za uwongo na machapisho ya mitandao ya kijamii yalieneza habari potofu kuhusu virusi na chanjo. Kulikuwa na habari nyingi za uwongo za uwongo kwenye Whatsapp na mitandao mingine ya kijamii ambazo zilidai kuwa tiba fulani za Ayurvedic zinaweza kutibu COVID-19, na kusababisha hofu iliyoenea na mazoea potofu ya kujitibu. Kwa kutumia AI ya Kuzalisha, ni juhudi ndogo kwa walaghai kutoa habari za uwongo kwa kiwango kikubwa na kuleta hofu miongoni mwa watu. Kwa mfano unaweza kutengeneza picha zilizodanganywa kwa urahisi na watu halisi, maeneo halisi na kuifanya kuwa habari za kusisimua. Huu hapa ni mfano mmoja unaoonyesha picha ghushi ya Taj Mahal iliyopigwa na tetemeko la ardhi lililotokana na modeli ya OpenAI ya DALL-E (Mchoro 2).

Kielelezo cha 2: Picha ghushi ya Taj Mahal akipigwa na tetemeko la ardhi


Hii hapa ni nyingine inayoonyesha hoteli ya Taj mjini Mumbai ikiwaka moto (inakumbusha shambulio la kigaidi la 2008) kwenye Mchoro 3.

sura ya 3: Picha ghushi ya hoteli ya Taj Mahal inateketea kwa moto

Ponografia na unyanyasaji usio na msingi

Wahalifu wa mtandaoni, pamoja na watu binafsi walio na nia mbaya, wanaweza kutumia teknolojia ya Generative AI kuzindua kampeni za unyanyasaji zinazosababisha kuharibiwa sifa, au aina zaidi za jadi za unyanyasaji mtandaoni. Waathiriwa wanaweza kuanzia watu binafsi au watu mashuhuri wa umma. Mbinu zinaweza kujumuisha uundaji wa picha ghushi, video ghushi katika hali zinazohatarisha au katika mazingira yaliyobadilishwa. Kwa mfano, Mnamo Januari 2024, pop-megastar T aylor Swift alikua mlengwa wa hivi punde wa wasifu wa juu wa picha za uwongo za ngono wazi zisizo na ridhaa zilizotengenezwa kwa kutumia akili bandia ambazo zilisambazwa sana kwenye mitandao ya kijamii.

Ulaghai unaolengwa kwa kutumia sauti ghushi

AI ya Kuzalisha inaweza kunakili sauti na mifano, na kufanya iwezekane kwa watu binafsi kuonekana kana kwamba wanasema au kufanya karibu chochote. Teknolojia hii ni sawa na video za "deepfake" lakini inatumika kwa sauti. Sauti zinazozalishwa na AI zinatumiwa kuimarisha ulaghai, na kuzifanya ziwe za kushawishi zaidi. Kwa mfano mtu anaweza kufuta sauti yako kutoka kwenye mtandao na kuitumia kumpigia simu bibi yako na kumwomba pesa. Waigizaji wa tishio wanaweza kupata sekunde chache za sauti ya mtu kutoka kwa mitandao ya kijamii au vyanzo vingine vya sauti na kutumia AI ya uzalishaji kutoa hati nzima ya chochote wanachotaka mtu huyo kusema. Hii itamfanya mlengwa aamini kuwa simu hiyo inatoka kwa marafiki au jamaa zake na hivyo atadanganyika kutuma pesa kwa tapeli akidhani kuwa mtu wa karibu ana uhitaji.

Ulaghai wa mapenzi na utambulisho Bandia

Ulaghai wa kimapenzi unaongezeka, na nchini India hiyo ilikuwa ripoti kwamba asilimia 66 ya watu nchini humo wanaingia kwenye njama za udanganyifu za uchumba mtandaoni. Mtu bandia kabisa anaweza kutengenezwa kwa kutumia Generative AI. Walaghai wanaweza kuunda hati za kubuni kama vile pasipoti au kadi za aadhar. Wanaweza hata kuunda picha zao za uwongo, kama picha iliyoonyeshwa hapa chini ya mtu bandia mbele ya nyumba nzuri na gari la kifahari. Wanaweza hata kupiga simu kwa sauti ya uwongo na wanaweza kukushawishi kuwa AI ni mtu halisi na hatimaye kukulenga kihisia ili kukuza hisia kwao, na baadaye kukunyang'anya pesa au zawadi. Huu hapa ni mfano (katika Kielelezo 4) wa picha inayotokana na AI ya mtu bandia, iliyotengenezwa kwa kutumia boti ya Midjourney.


Kielelezo cha 4: Mtu ghushi iliyoundwa na walaghai kwa kutumia safari ya katikati

Kashfa za ununuzi mtandaoni

Matangazo ya udanganyifu yanaweza kuhusisha madai ya uwongo, au hata kuunda bidhaa au huduma ghushi kabisa. Hii inaweza kusababisha wateja kufanya ununuzi bila taarifa au ulaghai.GenAI inaweza kutumika kutoa ukaguzi, ukadiriaji na mapendekezo ya bidhaa bandia kwenye mifumo ya biashara ya mtandaoni. Maoni haya ya uwongo yanaweza kukuza sifa ya bidhaa za ubora wa chini kwa njia bandia au kuharibu sifa ya bidhaa halisi. Walaghai wanaweza kutumia GenAI kuunda uorodheshaji wa bidhaa ghushi au tovuti zinazoonekana kuwa halali, hivyo kufanya iwe vigumu kwa watumiaji kutofautisha kati ya wauzaji halisi na walaghai. Chatbots au mawakala wa huduma kwa wateja kulingana na AI wanaweza kutumika kutoa maelezo ya kupotosha kwa wanunuzi, ambayo inaweza kusababisha maamuzi ya ununuzi ambayo hayana habari. Kwa hivyo mfumo mzima wa ikolojia wa biashara ghushi unaweza kuanzishwa kwa urahisi.

Kukaa Macho na Kujilinda Dhidi ya Ulaghai Unaoendeshwa na AI

Kwa mifano iliyo hapo juu, ni wazi kuwa maudhui hatari yanaweza kuundwa kwa kiwango kikubwa kwa kutumia Generative AI kwa urahisi wa kutisha. AI ya Kuzalisha hufanya kama zana ya tija, kuongeza kiasi na ustadi wa yaliyomo. Wachezaji mahiri wanaingia kwenye mchezo kwa urahisi zaidi, na kuna hatua muhimu kuelekea kutumia mitandao ya kijamii kwa manufaa ya kifedha. Waundaji wa habari za uwongo wa hali ya juu wana uwezo mkubwa wa kuongeza na kutumia AI ili kujitafsiri katika lugha nyingine ili kuleta maudhui yao katika nchi na watu ambao hawakuweza kufikia hapo awali. Kuna baadhi ya hatua ambazo kila mtu anaweza kuchukua ili kuwa macho na kujilinda dhidi ya ulaghai unaoendeshwa na AI. Ufahamu na uangalifu ni muhimu katika kulinda dhidi ya ulaghai unaoendeshwa na AI.


Thibitisha chanzo cha yaliyomo kila wakati. Ingawa kampuni zote kuu za teknolojia ni Watermarking AI inayotokana na maudhui kama suluhu la kuwezesha wasanidi programu kusimba alama za maji , kutoa ugunduzi bora na uhalisi wa AI inayozalishwa, kundi la jumla la watu wasio wa teknolojia hawajui teknolojia kama hizo na hawajui. jinsi ya kutambua alama za maji au kutumia zana za kugundua maudhui zinazozalishwa na AI. Jambo la msingi ambalo linaweza kufanywa na kila mtu hata hivyo, ni kuthibitisha kila mara chanzo cha picha, video au ujumbe wowote wa sauti unaotiliwa shaka. Ukipokea video ambayo inaonekana si ya kawaida kwa mtu aliyeonyeshwa, angalia vyanzo vingine na uwasiliane na mtu huyo moja kwa moja. Kwa mfano, video ya kina ya mwanasiasa akitoa kauli za uchochezi inapaswa kuthibitishwa kupitia njia rasmi. Video ya jamaa akitekwa nyara au akiwa katika taabu inapaswa kuthibitishwa kwa kumpigia simu mtu huyo au mawasiliano ya pande zote mbili. Vile vile, simu ya sauti kutoka kwa mtu anayedai kuwa mtendaji mkuu au mwakilishi wa benki anayeuliza taarifa nyeti, inaweza kuthibitishwa kwa kupiga tena nambari inayojulikana na inayoaminika kama vile nambari rasmi ya huduma kwa wateja ya benki ili kuthibitisha.


Weka kikomo kushiriki maelezo ya kibinafsi. Mara nyingi wadanganyifu hutumia maelezo kutoka kwa mitandao ya kijamii ili kuunda uwongo na ujumbe wa sauti unaoshawishi. Epuka kuchapisha taarifa nyeti kama vile anwani yako, nambari ya simu na maelezo ya kifedha. Rekebisha mipangilio ya faragha kwenye akaunti zako za mitandao ya kijamii ili kupunguza uonekanaji wa machapisho yako na taarifa za kibinafsi. Ruhusu tu marafiki na familia unaowaamini kutazama wasifu na machapisho yako. Kwenye Facebook au Instagram, unaweza kukagua na kurekebisha mipangilio yako ya faragha ili kuhakikisha kuwa ni marafiki zako pekee wanaoweza kuona machapisho yako. Epuka kushiriki maelezo kama vile mipango yako ya likizo, ambayo inaweza kutumiwa na walaghai kukulenga ukiwa mbali. Weka wasifu wako na orodha ya marafiki kuwa ya faragha ili walaghai wasilenge familia na marafiki zako kwa video na simu zako za uwongo. Kuweka kikomo cha maelezo ya kibinafsi yanayopatikana mtandaoni hufanya iwe vigumu zaidi kwa walaghai kukusanya data kukuhusu. Hii inapunguza uwezekano kwamba wanaweza kuunda bandia za kushawishi au kukuiga.


Tunaposimama ukingoni mwa enzi inayoendeshwa na AI, vita kati ya uvumbuzi na unyonyaji vinazidi. Kuongezeka kwa ulaghai unaoendeshwa na AI si changamoto tu—ni wito wa kuchukua hatua. Pamoja na AI ya uzalishaji yenye uwezo wa kuunda bandia za kushawishi, sauti za kweli za sauti, na mipango ya kisasa ya kuhadaa ili kupata maelezo ya kibinafsi, uwezekano wa udanganyifu haujawahi kuwa mkubwa zaidi. Hata hivyo, miongoni mwa vitisho hivi kuna fursa: nafasi ya kufafanua upya mbinu yetu ya usalama wa kidijitali na uaminifu. Haitoshi kufahamu; lazima tuwe makini, tukitumia teknolojia ile ile ya kisasa ili kutengeneza mifumo ya hali ya juu ya utambuzi na kampeni za elimu kwa umma. Mustakabali wa AI haujaamuliwa mapema. Kwa kuchukua hatua madhubuti leo, tunaweza kuunda mazingira ya kidijitali ambapo ahadi ya uzalishaji wa AI inatimizwa bila kuathiriwa na hatari zake. Hebu huu uwe wakati wetu wa kuinuka, kuvumbua na kulinda, tukihakikisha ulimwengu wa kidijitali salama kwa wote.