Tumagal ng wala pang isang taon para mabago ng AI ang landscape ng seguridad. Nagsimulang maging mainstream ang Generative AI noong Pebrero 2024. Ang unang ilang buwan ay ginugol sa pagkamangha. Ang magagawa nito at ang mga kahusayan na maidudulot nito ay hindi pa naririnig. Ayon kay a
Kabilang sa mga tool na ito, ang ChatGPT ng OpenAI ay partikular na sikat, na may
Laganap ang pag-ampon, ngunit may mga alalahanin tungkol sa katumpakan at seguridad ng code na binuo ng AI. Para sa isang batikang developer o application security practitioner, hindi magtatagal upang makitang may mga problema ang code na ginawa gamit ang Generative AI. Sa ilang mabilis na prompt, mabilis na lumalabas ang mga bug at isyu.
Ngunit ang mga developer na nasasabik tungkol sa AI ay nagpapakilala ng higit sa mga makalumang bug ng seguridad sa code. Lalo rin nilang dinadala ang mga modelo ng AI sa mga produkto na kanilang binuo–kadalasan nang walang kamalayan ng seguridad, lalo pa ang pahintulot—na nagdudulot ng maraming isyu sa pag-aaway. Sa kabutihang palad, mahusay din ang AI sa pakikipaglaban sa mga isyung ito kapag nakaturo ito sa tamang direksyon.
Ang artikulong ito ay titingnan kung paano:
Isipin ang isang senaryo kung saan ang mga developer, na hinihimok ng pangangailangan na makipagsabayan sa kanilang mga kapantay o nasasabik lang sa kung ano ang inaalok ng AI, ay nagsasama ng mga modelo at tool ng AI sa mga application nang hindi nalalaman ng security team. Ganito nangyayari ang Shadow AI.
Ang aming mga obserbasyon sa Mend.io ay nagsiwalat ng isang nakakagulat na trend: ang ratio sa pagitan ng kung ano ang nalalaman ng mga security team at kung ano ang aktwal na ginagamit ng mga developer sa mga tuntunin ng AI ay isang salik na 10. Nangangahulugan ito na para sa bawat proyekto ng AI sa ilalim ng securities purview, 10 pa ang tumatakbo sa anino, na lumilikha ng malaking panganib sa seguridad ng organisasyon.
Mga Hindi Nakontrol na Mga Kahinaan : Ang mga hindi sinusubaybayang modelo ng AI ay maaaring magkaroon ng mga kilalang kahinaan, na ginagawang mahina o madaling kapitan ng mga pag-atake ang iyong application.
Pag-leakage ng Data : Maaaring hindi sinasadyang ilantad ng AI ang sensitibong data, na humahantong sa mga paglabag sa privacy at mga multa sa regulasyon.
Mga Paglabag sa Pagsunod : Ang paggamit ng mga hindi naaprubahang modelo ng AI ay maaaring lumabag sa mga regulasyon ng industriya at mga pamantayan sa seguridad ng data.
Sa kabutihang palad, ang AI mismo ay nag-aalok ng solusyon sa hamong ito. Maaaring i-scan ng advanced na AI-driven na mga tool sa seguridad ang iyong buong codebase, na tinutukoy ang lahat ng AI na teknolohiyang ginagamit, kabilang ang mga nakatago sa view. Ang komprehensibong imbentaryo ay magbibigay-daan sa mga security team na magkaroon ng visibility sa shadow AI, tumulong sa pagtatasa ng mga panganib, at magpatupad ng mga kinakailangang diskarte sa pagpapagaan.
Ang mga tradisyunal na tool sa seguridad ng application ay umaasa sa pangunahing data at pagsusuri sa daloy ng kontrol, na nagbibigay ng limitadong pag-unawa sa functionality ng code. Ang AI, gayunpaman, ay may kakayahang isama ang pag-unawa sa semantiko at, bilang isang resulta, ay nagbibigay ng mas mahusay na mga natuklasan.
Ang mga tool sa seguridad na naka-enable sa AI ay maaari na ngayong kumuha ng mga semantic data point mula sa code, na nagbibigay ng mas malalim na insight sa tunay na layunin at gawi ng mga modelo ng AI. Nagbibigay-daan ito sa mga security team na:
Katulad ng ibang sistema, ang mga modelo ng AI ay mahina din sa mga pag-atake. Ginagamit ng AI red teaming ang kapangyarihan ng AI para gayahin ang mga adversarial na pag-atake, na naglalantad ng mga kahinaan sa mga AI system at ang mga pagpapatupad ng mga ito. Kasama sa diskarteng ito ang paggamit ng mga adversarial prompt, mga espesyal na ginawang input na idinisenyo upang pagsamantalahan ang mga kahinaan at manipulahin ang pag-uugali ng AI. Ang bilis kung saan ito magagawa ay ginagawang halos tiyak na ang AI ay gagamitin nang husto sa malapit na hinaharap.
Ang AI Red Teaming ay hindi titigil doon. Gamit ang mga tool ng AI Red Teaming, maaaring harapin ng mga application ang mga brutal na pag-atake na idinisenyo upang matukoy ang mga kahinaan at alisin ang mga system. Ang ilan sa mga tool na ito ay katulad ng kung paano gumagana ang DAST, ngunit sa mas mahirap na antas.
Mga Pangunahing Takeaway:
● Proactive Threat Modeling: Asahan ang mga potensyal na pag-atake sa pamamagitan ng pag-unawa kung paano maaaring manipulahin ang mga modelo ng AI at kung paano sila maisasaayos sa pag-atake sa anumang kapaligiran o iba pang modelo ng AI.
● Matatag na Pagsubok sa Seguridad: Ipatupad ang mga diskarte sa pagtutulungan ng AI para maagap na matukoy at mabawasan ang mga kahinaan.
● Pakikipagtulungan sa mga AI Developer: Makipagtulungan nang malapit sa mga development team para matiyak ang parehong secure na AI development at secure na mga kasanayan sa coding.
Nag-aalok ang AI ng maraming halaga na hindi maaaring balewalain. Ang mga generative na kakayahan nito ay patuloy na humahanga sa mga taong gumagawa nito. Tanungin ito kung ano ang gusto mo at magbabalik ito ng isang sagot na hindi palaging ngunit kadalasan ay napakatumpak. Dahil dito, kritikal na bumuo ng mga guardrail na nagsisiguro ng responsable at secure na paggamit ng AI.
Ang mga guardrail na ito ay maaaring magkaroon ng iba't ibang anyo, kabilang ang:
Ang pangunahing pagsasaalang-alang sa pagpapatupad ng mga guardrail ay ang trade-off sa pagitan ng seguridad at flexibility ng developer. Bagama't ang mga sentralisadong pamamaraang tulad ng firewall ay nag-aalok ng kadalian sa pag-deploy, ang mga guardrail na partikular sa application na iniakma ng mga developer ay makakapagbigay ng mas granular at epektibong proteksyon.
Ang mga AI application ay lubos na umaasa sa mga API upang makipag-ugnayan sa mga panlabas na serbisyo at data source. Ang interconnectivity na ito ay nagpapakilala ng mga potensyal na panganib sa seguridad na dapat matugunan ng mga organisasyon nang maagap.
Mga Pangunahing Alalahanin sa Seguridad ng API sa Mga Aplikasyon ng AI:
Pinakamahuhusay na Kasanayan para sa Pag-secure ng mga API sa AI Applications:
Ang AI revolution ay hindi isang posibilidad sa hinaharap, narito na ito! Sa pamamagitan ng pagsusuri sa mga insight sa seguridad ng AI na tinalakay sa post na ito, maaaring i-navigate ng mga organisasyon ang pagbabagong panahon na ito at gamitin ang kapangyarihan ng AI habang pinapaliit ang mga panganib. Saglit lang naging mainstream ang AI, isipin kung ano ang magiging hitsura nito sa isang taon. Maliwanag ang kinabukasan ng AI kaya maging handa na gamitin ito at tiyaking ligtas din ito. ** Para sa higit pang mga detalye sa AI at AppSec - Panoorin ang aming
-Isinulat ni Jeffrey Martin, VP ng Product Marketing sa Mend.io