Ilichukua chini ya mwaka mmoja kwa AI kubadili kwa kiasi kikubwa mazingira ya usalama. Generative AI ilianza kuwa tawala wakati wa Februari 2024. Miezi michache ya kwanza ilitumika kwa mshangao. Nini inaweza kufanya na ufanisi ambayo inaweza kuleta hazikusikika. Kulingana na a
Kati ya zana hizi, ChatGPT ya OpenAI ni maarufu sana, na
Kuasili kumeenea, lakini kuna wasiwasi kuhusu usahihi na usalama wa msimbo unaozalishwa na AI. Kwa msanidi aliyebobea au mtaalamu wa usalama wa programu, haichukui muda kuona kwamba msimbo ulioundwa na Generative AI una matatizo yake. Kwa vidokezo vichache tu vya haraka, hitilafu na matatizo huonekana haraka.
Lakini watengenezaji walio na shauku kuhusu AI wanaleta zaidi ya hitilafu za usalama za kizamani kwenye msimbo. Pia wanazidi kuleta miundo ya AI katika bidhaa wanazotengeneza—mara nyingi bila ufahamu wa usalama, achilia mbali ruhusa—jambo ambalo huleta matatizo chungu nzima. Kwa bahati nzuri, AI pia ni bora katika kupambana na maswala haya wakati imeelekezwa katika mwelekeo sahihi.
Nakala hii itaangalia jinsi:
Hebu fikiria hali ambapo wasanidi programu, wakisukumwa na hitaji la kufahamiana na wenzao au kufurahishwa tu na kile AI inatoa, wanaunganisha miundo na zana za AI katika programu bila timu ya usalama kujua. Hivi ndivyo Shadow AI hutokea.
Uchunguzi wetu katika Mend.io umefichua mwelekeo wa kushangaza: uwiano kati ya yale ambayo timu za usalama zinafahamu na yale ambayo wasanidi programu wanatumia kwa mujibu wa AI ni kipengele cha 10. Hii ina maana kwamba kwa kila mradi wa AI ulio chini ya usimamizi wa dhamana, 10 zaidi wanafanya kazi katika kivuli, hivyo basi hatari kubwa kwa usalama wa shirika.
Athari Isiyodhibitiwa : Miundo ya AI isiyofuatiliwa inaweza kuwa na udhaifu unaojulikana, na kufanya programu yako kuwa hatarini au kushambuliwa.
Uvujaji wa Data : AI iliyosanidiwa vibaya inaweza kufichua data nyeti bila kukusudia, hivyo kusababisha ukiukaji wa faragha na faini za udhibiti.
Ukiukaji wa Uzingatiaji : Kutumia miundo ya AI ambayo haijaidhinishwa inaweza kukiuka kanuni za sekta na viwango vya usalama wa data.
Kwa bahati nzuri, AI yenyewe inatoa suluhisho kwa changamoto hii. Zana za hali ya juu za usalama zinazoendeshwa na AI zinaweza kuchanganua codebase yako yote, kubainisha teknolojia zote za AI zinazotumika, ikiwa ni pamoja na zile ambazo hazionekani. Orodha ya kina itawezesha timu za usalama kupata mwonekano katika kivuli cha AI, kusaidia kutathmini hatari, na kutekeleza mikakati muhimu ya kupunguza.
Zana za kawaida za usalama za programu hutegemea data msingi na uchanganuzi wa mtiririko wa udhibiti, kutoa uelewa mdogo wa utendakazi wa msimbo. AI, hata hivyo, ina uwezo wa kujumuisha uelewa wa kisemantiki na, matokeo yake, kutoa matokeo bora zaidi.
Zana za usalama ambazo zimewezeshwa na AI sasa zinaweza kutoa pointi za data za kisemantiki kutoka kwa msimbo, kutoa maarifa ya kina kuhusu dhamira na tabia ya kweli ya miundo ya AI. Hii huwezesha timu za usalama:
Kama mfumo mwingine wowote, mifano ya AI pia iko katika hatari ya kushambuliwa. Upangaji wa timu nyekundu wa AI huongeza nguvu ya AI kuiga mashambulizi ya wapinzani, kufichua udhaifu katika mifumo ya AI na utekelezaji wake. Mbinu hii inahusisha kutumia vidokezo vya wapinzani, ingizo iliyoundwa mahususi ili kutumia udhaifu na kudhibiti tabia ya AI. Kasi ambayo hii inaweza kukamilishwa inafanya kuwa karibu hakika kwamba AI itatumika sana katika siku za usoni.
AI Red Teaming haishii hapo. Kwa kutumia zana za AI Red Teaming, programu zinaweza kukabiliana na mashambulizi ya kikatili yaliyoundwa ili kutambua udhaifu na kuharibu mifumo. Baadhi ya zana hizi ni sawa na jinsi DAST inavyofanya kazi, lakini kwa kiwango kigumu zaidi.
Mambo muhimu ya kuchukua:
● Muundo Mahiri wa Tishio: Tarajia mashambulizi yanayoweza kutokea kwa kuelewa jinsi miundo ya AI inaweza kubadilishwa na jinsi inavyoweza kupangwa ili kushambulia mazingira yoyote au muundo mwingine wa AI.
● Jaribio Imara la Usalama: Tekeleza mbinu za uwekaji timu nyekundu za AI ili kutambua kwa vitendo na kupunguza udhaifu.
● Ushirikiano na Wasanidi Programu wa AI: Fanya kazi kwa karibu na timu za maendeleo ili kuhakikisha maendeleo salama ya AI na mbinu salama za usimbaji.
AI inatoa thamani nyingi ambayo haiwezi kupuuzwa. Uwezo wake wa kuzalisha unaendelea kushangaza wale wanaofanya kazi nayo. Iulize unachopenda na itarudisha jibu ambalo sio kila wakati lakini mara nyingi ni sahihi sana. Kwa sababu hii, ni muhimu kuunda mihimili ya ulinzi ambayo inahakikisha utumiaji wa AI unaowajibika na salama.
Njia hizi za ulinzi zinaweza kuchukua aina mbalimbali, ikiwa ni pamoja na:
Jambo kuu la kuzingatia katika kutekeleza kanuni za ulinzi ni biashara kati ya usalama na ubadilikaji wa wasanidi programu. Ingawa mbinu za kati zinazofanana na ngome hutoa urahisi wa uwekaji, njia za ulinzi mahususi za programu iliyoundwa na wasanidi programu zinaweza kutoa ulinzi wa punjepunje na bora zaidi.
Programu za AI zinategemea sana API kuingiliana na huduma za nje na vyanzo vya data. Muunganisho huu huleta hatari zinazoweza kutokea za usalama ambazo mashirika lazima yashughulikie kikamilifu.
Hoja Muhimu na Usalama wa API katika Programu za AI:
Mbinu Bora za Kulinda API katika Programu za AI:
Mapinduzi ya AI sio uwezekano wa siku zijazo, tayari yako hapa! Kwa kukagua maarifa ya usalama ya AI yaliyojadiliwa katika chapisho hili, mashirika yanaweza kupitia enzi hii ya mabadiliko na kutumia nguvu za AI huku yakipunguza hatari. AI imekuwa tawala kwa muda mfupi tu, fikiria jinsi itakavyokuwa katika mwaka mmoja. Mustakabali wa AI ni mzuri kwa hivyo uwe tayari kuutumia na uhakikishe kuwa pia ni salama. ** Kwa maelezo zaidi juu ya AI & AppSec - Tazama yetu
-Imeandikwa na Jeffrey Martin, VP wa Uuzaji wa Bidhaa huko Mend.io