paint-brush
Бұл LLM шын мәнінде «ашық бастапқы код» ма? Біз AI басқаруындағы Open-Washing туралы сөйлесуіміз керекбойынша@salkimmich
970 оқулар
970 оқулар

Бұл LLM шын мәнінде «ашық бастапқы код» ма? Біз AI басқаруындағы Open-Washing туралы сөйлесуіміз керек

бойынша Sal Kimmich13m2024/09/08
Read on Terminal Reader

Тым ұзақ; Оқу

Қарқынды дамып келе жатқан жасанды интеллект (AI) әлемінде ашық бастапқы және меншікті бағдарламалық жасақтама арасындағы айырмашылық барған сайын түсініксіз болып барады. Бұл өсіп келе жатқан күрделілік AI-дағы мөлдірлік, этика және «ашықтықтың» шынайы мағынасы туралы маңызды сұрақтарды тудырады. Біз сізге анағұрлым негізделген шешімдер қабылдауға көмектесу үшін ашық бастапқы AI анықтамасын (OSAID) тереңірек аналитикалық түсініктермен біріктіретін кешенді бағалау жүйесін енгіземіз.
featured image - Бұл LLM шын мәнінде «ашық бастапқы код» ма? Біз AI басқаруындағы Open-Washing туралы сөйлесуіміз керек
Sal Kimmich HackerNoon profile picture
0-item

Бағалау градиентін жасау үшін нақты мүмкіндіктерге салмақтарды тағайындау арқылы сандық ашықтық пайымдауларын әрекет ететін көрсеткіштерге қалай айналдыруға болатынын көрсететін сурет.

Сіз не үйренесіз

Бұл блогта біз ашық бастапқы код принциптерінің BloomZ және Llama 2 сияқты үлкен тіл үлгілеріне (LLM) қалай қолданылатынына (немесе қолданылмайтынына) назар аудара отырып, AI ашықтығының күрделілігіне терең бойлаймыз. Осы мақаланың соңына қарай сіз Open Source лицензиясының тарихи контекстін, AI-дағы «ашықтықты» анықтаудағы қазіргі қиындықтарды және тұтынушыларды да, әзірлеушілерді де адастыратын «ашық жуу» құбылысын түсіну. Сондай-ақ, біз AI үлгілері туралы көбірек негізделген шешімдер қабылдауға көмектесу үшін ашық бастапқы AI анықтамасын (OSAID) басқа құрылымдардан алынған қосымша түсініктермен біріктіретін кешенді бағалау жүйесін енгіземіз. Соңында біз кез келген «Ашық бастапқы коды» үлкен тіл үлгісі үшін мөлдірлікті сандық өлшеуге арналған құрама пікірді әзірлеу үшін әрекетке жарамды үздік тәжірибелермен қорытындылаймыз.


Жалпы қабылданған анықтамаларды толықтыратын баламаларды зерттеу де пайдалы. Біз талқылайтын болсақ, кейбір перспективалар (соның ішінде соңғы талдаулар) ашық бастапқы AI анықтамасы (OSAID) сияқты құрылымдар қосымша өлшемдерден, әсіресе деректердің ашықтығы сияқты мәселелерді шешу жолында пайда көреді деп болжайды. Модельдің ашықтық құрылымы және оның Open Science қағидаттары негізіндегі негізі AI ашықтығын бағалау үшін қосымша нұсқаулық ретінде қызмет етуі мүмкін қосымша перспективаны ұсынады. Біз әлі де осы кеңістіктегі нормативтік сәйкестіктің алғашқы күндеріндеміз.


Неліктен бұл маңызды?

Жасанды интеллект әлемі күрделі және жылдам дамып келеді, көбінесе ашық бастапқы қағидаларды өз шегіне дейін итермелейді. Бұл нюанстарды түсіну AI жүйелері тек инновациялық ғана емес, сонымен қатар мөлдір, этикалық және есеп беруші екеніне көз жеткізгісі келетін әзірлеушілер, зерттеушілер және тұтынушылар үшін өте маңызды. Жасанды интеллект үлгілері ашық көз ретінде жалған сатылатын «ашық жуудың» көбеюімен бұл шағымдарды бағалау үшін сенімді негізге ие болу бұрынғыдан да маңызды. Осы біліммен қарулану арқылы сіз AI әзірлеудегі ашықтық пен мөлдірліктің шынайы құндылықтарына сәйкес келетін негізделген шешімдер қабылдай аласыз.

Ашық бастапқы лицензиялаудың тарихи контексі

Қайда бара жатқанымызды түсіну үшін қайда болғанымызды білу маңызды. Open Source қозғалысы 1980 жылдары Free Software Foundation (FSF) және GNU General Public License (GPL) енгізген кезде меншікті бағдарламалық қамтамасыз етудің өсіп келе жатқан үстемдігіне қарсы көтеріліс нәтижесінде пайда болды. Бұл лицензия пайдаланушыларға бағдарламалық жасақтаманы пайдалану, өзгерту және ортақ пайдалану еркіндігіне кепілдік беретін ойынды өзгертуші болды, бұл негізінен әзірлеушілер мен пайдаланушылардың қолына қуатты қайтарады.


1990 жылдардың соңына қарай жылдам алға және Open Source Initiative (OSI) Open Source Definition (OSD) талаптарына сәйкес келетін лицензияларды куәландыру арқылы Ашық бастапқы бағдарламалық жасақтаманы жылжыту және қорғау үшін құрылды. OSD «ашық көз» деп атауға болатын және болмайтын нәрсеге қатысты заңды бекітіп, бұл терминнің суарылмауын немесе дұрыс пайдаланылмауын қамтамасыз етті.

Үлкен тілдік үлгілердің (LLM) мысалы және «Ашықтық» шектеулері

Ашық және жабық жүйелер арасындағы сызықтар бұрынғыдан да бұлыңғыр болатын AI әлеміне кіріңіз. GPT-3 немесе оның мұрагерлері сияқты үлкен тілдік модельдер (LLMs) AI ландшафтында «ашық көз» алдамшы термин болуы мүмкін екендігінің тамаша мысалдары болып табылады. LLM - адамға ұқсас мәтінді жасау үшін жаппай деректер жиынында оқытылған күрделі AI жүйелері. Бұл модельдер аудармадан бастап шығармашылық жазуға дейінгі кең ауқымды тапсырмаларды орындау қабілетіне байланысты айтарлықтай қызығушылық пен инвестицияны тудырды. Дегенмен, бұл модельдердің әсерлі мүмкіндіктеріне қарамастан, мұқият қарастырған кезде «ашықтық» түсінігі жиі төмендейді.


«Ашық бастапқы генеративті AI-ны қайта қарастыру: Open-Washing және EU AI актісі » атты зерттеу жұмысында зерттеушілер доктор Лизенфельд пен оның командасы талдау барысында екі танымал LLM-ді BloomZ және Llama 2-ні әртүрлі деңгейдегі ашықтық мысалдары ретінде салыстырады. AI. Бұл салыстыру генеративті AI үлгілеріне ашықтық матрицасын қалай қолдану керектігін практикалық көрсетуді ұсынады:


BloomZ және Llama 2-ні ашықтықтың 14 өлшемі бойынша салыстыру, рамканы суреттеу.


BloomZ: Шынайы ашықтықтағы жағдайды зерттеу

BloomZ AI-дағы ашықтық пен қолжетімділіктің жоғары стандартын белгілейтін, ашық бастапқы код принциптерін шын мәнінде қабылдайтын модельді білдіреді.


  • Қол жетімділік : BloomZ ашықтықтың жоғары дәрежесін көрсететін модельді оқыту, дәл реттеу және іске қосу үшін бастапқы кодты қол жетімді етеді. BloomZ оқыту үшін пайдаланылатын LLM деректері оның деректер көздері мен процестері туралы мөлдір етіп құжатталған. Негізгі үлгі салмақтары да, нұсқаулықпен реттелетін нұсқасы да ашық қол жетімді, бұл кеңірек қауымдастықтың қайталауына және тексеруіне мүмкіндік береді.
  • Құжаттама : BloomZ жобасы жақсы құжатталған, егжей-тегжейлі сипаттамалары бірнеше ғылыми мақалаларда және белсенді GitHub репозиторийінде қол жетімді. Деректерді өңдеу және дәл реттеу процестері жан-жақты қамтылып, модель архитектурасы, оқу деректері және жауапты пайдалану туралы түсінік береді. Рецензияланған құжаттар оның ашықтығын, соның ішінде AI жобаларында сирек құжатталатын көміртегі ізін бағалауды одан әрі қолдайды.
  • Қол жеткізу және лицензиялау : BloomZ Petals API арқылы таратылады және оның бастапқы коды Apache 2.0 лицензиясы , OSI мақұлдаған лицензиясы бойынша шығарылады. Үлгі салмақтары этикалық жауапкершілік деңгейін қоса отырып, зиянды пайдалануды болдырмау үшін шектеулер енгізетін жауапты AI лицензиясы (RAIL) аясында қамтылған.

2-Ллама : Ашық жуудың тұзақтары

Керісінше, Llama 2 «ашық жуу» тұжырымдамасын мысалға келтіреді, мұнда ашық бастапқы код белгісі ашықтық принциптеріне толық сәйкес келмей қолданылады.


  • Қол жетімділік : Керісінше, Llama 2 бастапқы кодын қолжетімді етпейді. Модельді іске қосуға арналған сценарийлер ғана ортақ пайдаланылады және LLM деректері корпоративтік алдын ала басып шығаруда берілген шектеулі мәліметтермен анық емес сипатталған. Негізгі үлгі салмақтарына қол жеткізу шектелген, келісім нысанын талап етеді және нұсқауларды реттеу үшін пайдаланылатын деректер ашылмаған күйде қалады, бұл мөлдірлікті одан әрі шектейді.

  • Құжаттама : Llama 2 құжаттамасы минималды, бастапқы кодтың өзі ашық емес. Архитектура азырақ егжей-тегжейлі сипатталған, корпоративтік веб-сайттарда шашыраңқы және бір алдын ала басып шығару . BloomZ-ден айырмашылығы, Llama-да оқыту деректерінің жиынтықтары, нұсқауларды баптау және дәл реттеу процестері туралы толық құжаттама жоқ.

  • Қол жеткізу және лицензиялау : Llama 2 құпиялылыққа қарсы тіркелу пішінінің артында қол жетімді және оның лицензиясы Meta компаниясының жеке қауымдастық лицензиясы бойынша өңделеді. Бұл лицензия BloomZ's RAIL-ге қарағанда қатаңырақ, жасалған мазмұнды көрсету жолының төменгі жолағы бар, бұл ықтимал жаңылыстыратын қолданбаларға орын қалдырады.


BloomZ және Llama 2 арасындағы салыстыру олардың ашықтыққа деген көзқарасындағы түбегейлі айырмашылықтарды көрсетеді. BloomZ кодының, деректерінің және құжаттамасының мөлдірлігімен ашық бастапқы код принциптерін шын мәнінде қабылдайтын модельдің тамаша үлгісі болып табылады. Керісінше, Llama 2 «ашық жууды» мысалға алады, мұнда модель ашық бастапқы ретінде белгіленген, бірақ шынайы ашықтық аспектілерінің көпшілігінде жеткіліксіз, тек модель салмақтары шектеулі шарттарда қол жетімді. Бұл салыстыру AI-дағы ашықтықты неғұрлым егжей-тегжейлі түсіну қажеттілігін және ашықтық туралы үстірт мәлімдемелерге сүйенбей, толық өлшемдер жиынтығы негізінде модельдерді бағалаудың маңыздылығын көрсетеді.

Ашық жуудың қиындығы

«Ашық жуу» - бұл шын мәнінде ашық емес нәрсеге ашық бастапқы жапсырманы ұру тәжірибесі. AI әлемінде ашық жуу кең таралған, компаниялар өздерінің AI жүйелерінің биттері мен бөліктерін ұсынып, ең маңызды компоненттерді құлыпта және кілтте сақтайды.

Зерттеу жұмысы AI-дағы ашық жуудың лас бөлшектерін зерттеп, кейбір негізгі қиындықтарды көрсетеді:


Композиттік ашықтық: AI-дағы ашықтық бір өлшемге сәйкес келетін тұжырымдама емес. Бұл көптеген бөліктері бар басқатырғыш және әрбір бөлік жүйенің жалпы мөлдірлігіне үлес қосады. Дегенмен, тым жиі компаниялар кейбір бөліктерді ғана шығарады, бұл жаңылыс ашықтық сезіміне әкеледі. Зерттеу АИ-дегі ашықтықты бинарлық күй емес, спектр ретінде қарастыру керектігін баса көрсете отырып, градиенттік ашықтық тұжырымдамасын енгізеді. AI жүйесінің әртүрлі құрамдас бөліктері — бастапқы код, деректер, модельдер — әртүрлі дәрежеде ашық болуы мүмкін және әрбір құрамдас бөлікті жеке бағалау өте маңызды. Бұл градиентті түсіну арқылы біз AI жүйелерінің шынайы ашықтығын жақсырақ бағалай аламыз және ішінара ашықтықпен жаңылысудан аулақ бола аламыз.


Таңдамалы ашықтық: Кейбір AI үлгілері жеткілікті ашықтықпен шығарылады - әдетте үлгі салмағы - бірақ деректер мен оқыту процесі сияқты маңызды құрамдас бөліктер меншікті болып қалады. Бұл таңдамалы ашықтық – пайдасынан гөрі зияны көп мөлдірлікке талпыныс. Тек ішінара қолжетімділікті қамтамасыз ету арқылы компаниялар мағыналы ынтымақтастық пен түсіністік үшін қажетті толық ашықтықты қамтамасыз етпей-ақ ашықтықты талап ете алады.


Нормативтік олқылықтар: ЕО AI актісі, жақсы ниетті нормативтік база, ашық лицензиялар бойынша шығарылған AI үлгілеріне егжей-тегжейлі құжаттама талаптарын айналып өтуге мүмкіндік беру арқылы байқаусызда ашық жууды ынталандыруы мүмкін. Бұл олқылық тек атымен ғана «ашық», нақты мөлдірлігі шамалы немесе мүлдем жоқ AI жүйелерінің тасқынына әкелуі мүмкін. Мұндай ережелердің мақсаты ашықтықты ілгерілету болса да, мұқият жүзеге асырылусыз және қадағалаусыз, олар мазмұнсыз ашықтық иллюзиясын жасау үшін пайдаланылуы мүмкін.


Джулия Ферраиоли өзінің блогында ашық жуу мәселесіне де тоқталып, былай деп атап өтті: «Мәселенің түйіні мынада: «ашық дереккөз» сияқты терминдер маркетингке көбірек қызығушылық танытатын ірі компаниялардың күн тәртібіне сәйкес келу үшін созылып, қайта анықталады. шынайы ашықтық пен ынтымақтастыққа қарағанда ». Бұл түсінік осы жаңылыстыратын шағымдарды електен өткізу үшін сенімді бағалау құрылымының қажеттілігін күшейтеді.


Зерттеу түсініктері: ашық бастапқы AI шындықтары


Жақында талқыланған ашықтық құрылымы ашықтыққа Ашық ғылымға негізделген көзқарасты ұсына отырып, осы түсініктердің кейбірін толықтырады. Ашық бастапқы AI анықтамасы (OSAID) сенімді негізді қамтамасыз еткенімен, осы саладағы көптеген адамдар, соның ішінде кейбір зерттеушілер, әсіресе деректердің ашықтығына қатысты, ол жеткіліксіз болуы мүмкін деп санайды. Салыстыру үшін ашықтық үлгісі моделі кодтың ашықтығын ғана емес, сонымен қатар Open Science құндылықтарына сәйкес деректер жиынының, әдістемелердің және оқыту процестерінің қолжетімділігін баса көрсететін неғұрлым қатаң эталонды белгілейді.


Градиенттің ашықтығы арқылы кеңейту

OSAID негізінде градиенттің ашықтығы тұжырымдамасы бағалау процесіне нюанс қосады. Жасанды интеллект жүйесінің әрбір құрамдас бөлігін – бастапқы кодты, деректерді, үлгілерді – жеке бағалау арқылы біз мөлдірлік пен ашықтықтың шынайы деңгейін жақсырақ түсіне аламыз.



Аталған мақала зерттеудің негізгі түсініктерін ұсынады:


  • Лицензиялауды түзетудің қиындықтары: Дәстүрлі ашық бастапқы лицензиялар AI күрделі, көп қырлы сипаты үшін емес, бағдарламалық қамтамасыз ету үшін жасалған. Қағазда AI тудыратын бірегей міндеттерді шешу үшін жаңа лицензиялау стратегиялары қажет деп тұжырымдайды. Бұл лицензиялар тек бастапқы кодты ғана емес, сонымен қатар деректердің, үлгілердің және параметрлердің де ашық бастапқы код принциптерінде қамтылуын қамтамасыз етуі керек. Лицензиялауға бұл тұтас көзқарас AI дәуіріндегі ашық бастапқы қозғалыстың тұтастығын сақтау үшін өте маңызды.


  • Этикалық ойлар: Техникалық ашықтықтан басқа, мақалада AI әзірлеу мен орналастыруда этикалық ойлардың маңыздылығы да көрсетілген. Ол AI жүйелеріндегі әділдікті, есептілікті және ашықтықты қамтамасыз ету тек техникалық қиындық емес, моральдық міндет екенін көрсетеді. Жасанды интеллект дамуының этикалық өлшемі кез келген ашықтықты талқылауға біріктірілуі керек, өйткені жауапкершіліксіз ашықтық айтарлықтай зиян келтіруі мүмкін.


  • Практикалық тәсіл: Зерттеушілер тіпті композиттік лицензия бойынша да категориялық сенімділікті орнатудың бірнеше ақылға қонымды жолдарын көрсетеді. Ашық бастапқы AI анықтамасын (OSAID) осы тереңірек түсініктермен біріктіру арқылы біз AI жүйелерін бағалау үшін сенімдірек негіз құра аламыз. Бұл тәсіл AI үлгілерін неғұрлым нюансты және жан-жақты бағалауға мүмкіндік береді, олардың техникалық және этикалық ашықтық стандарттарына сәйкес келуін қамтамасыз етеді.


LLM нұсқасын құру мәселесі: ашықтықтың ескерілмеген аспектісі

AI ашықтығындағы ең күрделі мәселелердің бірі - LLM нұсқасын жасау мәселесі. Нұсқа жаңартулары әдетте жақсы құжатталған және мөлдір болатын дәстүрлі бағдарламалық жасақтама пакеттерінен айырмашылығы, LLMs бұлыңғыр жаңартулардан өтіп, пайдаланушыларды не өзгергені туралы қараңғыда қалдырады. Бұл мөлдірліктің болмауы операциялық жүйенің жаңартуын ненің өзгертілгенін білмей орнатуға ұқсайды - LLM жағдайында үлестер одан да жоғары болуы мүмкін.


Операциялық жүйені салыстыру: компьютерге операциялық жүйені орнатып, жаңартуларды жүйелі түрде алып тұрғаныңызды елестетіңіз. Әдетте, сіз түзетілген, жақсартылған немесе қосылған нәрселерді егжей-тегжейлі көрсететін өзгерістер журналын көресіз деп күтесіз. Бұл мөлдірлік пайдаланушылар үшін өз жүйесінің күйін түсіну үшін өте маңызды. Енді мұндай ашықтықсыз үздіксіз жаңартылып отыратын LLM-ді қарастырыңыз. Пайдаланушылар бұл өзгерістерді нақты түсінбестен, нәзік немесе елеулі түрде өзгерген үлгімен жұмыс істей алады. Бұл мөлдірліктің болмауы өнімділіктің төмендеуінен этикалық алаңдаушылыққа дейінгі мәселелерге әкелуі мүмкін, себебі модель күтпеген тәсілдермен әрекет етуі мүмкін. Салыстыру нақты және қолжетімді нұсқалар ақпаратының қажеттілігін баса көрсете отырып, олардың жаңартулары туралы ашық емес AI үлгілерін пайдаланумен байланысты тәуекелдерді көрсетеді.


Мөлдір емес жаңартулардың тәуекелдері: мөлдірлік болмаса, пайдаланушылар қолданатын AI жүйелеріне толық сене алмайды. Ненің өзгергенін білмей, ОЖ жаңартуын орнатпайтыныңыз сияқты, бұлыңғыр жаңартулардан өтетін LLM-ге сену қауіпті. Бұл, әсіресе, AI нақты өмірге әсер ететін шешімдер қабылдау процестері үшін пайдаланылатын жоғары тәуекелді орталарға қатысты. LLM жаңартуы жаңа бейімділіктерді енгізсе немесе маңызды функцияларды жойса, салдары ауыр болуы мүмкін. Транспаренттіктің болмауы пайдаланушылардың сеніміне нұқсан келтіріп қана қоймайды, сонымен қатар маңызды этикалық және операциялық тәуекелдерді тудырады.

Бағалаудың кешенді негізін құру: OSIAID интеграциясы

Осы қиындықтарды шешуге көмектесу үшін біз ашық бастапқы AI анықтамасының (OSIAID) күшті жақтарын соңғы зерттеулердің тереңірек түсінігімен біріктіретін кешенді бағалау жүйесін енгіземіз. Бұл құрылым AI жүйелерінің ашықтығын бағалаудың сенімді әдісін қамтамасыз етуге бағытталған.


OSIAID негізі ретінде: Ашық бастапқы AI анықтамасы ашық бастапқы AI жүйесін нені құрайтынын түсіну үшін берік негіз береді. Ол AI үлгілерінің ең төменгі ашықтық стандартына сәйкес келуін қамтамасыз ете отырып, ашықтық, қолжетімділік және этикалық пайдаланудың нақты критерийлерін белгілейді. OSIAID-ті ұстану арқылы әзірлеушілер мен пайдаланушылар AI моделінің ашықтық пен мөлдірліктің негізгі стандарттарына сәйкес келетініне сенімді бола алады.


Градиенттің ашықтығымен кеңейту: OSIAID негізінде градиенттің ашықтығы тұжырымдамасы бағалау процесіне нюанс қосады. Жасанды интеллект жүйесінің әрбір құрамдас бөлігін – бастапқы кодты, деректерді, үлгілерді – жеке бағалау арқылы біз мөлдірлік пен ашықтықтың шынайы деңгейін жақсырақ түсіне аламыз. Бұл сіздің ұйымыңыздың тәуекелге тәбетінің және құрылымының көрсеткіштері немесе ұйымдар арасында стандартталған болуы мүмкін. Бұл тәсіл AI үлгілерін неғұрлым егжей-тегжейлі және дәл бағалауға, ашықтық күшті және оны жақсартуды қажет ететін аймақтарды анықтауға мүмкіндік береді.


Этикалық және құқықтық салдарларды қарастыру: негіз сонымен қатар AI жүйелерінің техникалық ашық болып қана қоймай, сонымен қатар кеңірек әлеуметтік құндылықтар мен заң талаптарымен сәйкес келуін қамтамасыз ететін этикалық және құқықтық ойларды қамтиды. Осы ойларды біріктіре отырып, құрылым ашықтық тек техникалық ашықтыққа ғана емес, сонымен қатар AI дамытуда шешуші мәнге ие этикалық және құқықтық стандарттарға сәйкестігіне кепілдік береді.


Джулия Ферраиолидің нақты анықтамалар қажеттілігіне және Open Source қағидаттарына адалдығына баса назар аударуы осы көзқараспен үндеседі. Ол былай деп жазады: «Ашық дереккөз қауымдастығы кез келген ауытқулардың сыни бақылаумен және ашықтық талабымен қанағаттандырылуын қамтамасыз ете отырып, өз құндылықтарын берік ұстануы керек». Бұл тәжірибелер AI жүйелерін бағалау үшін сенімді және жан-жақты негізді қамтамасыз ететін осы қажеттілікті қанағаттандыруға арналған.

Нормативтік көкжиекті есте сақтаңыз

Жасанды интеллектті реттеу ландшафтының дамуы жалғасуда, ақпараттан хабардар болу және реттеуші әзірлемелермен айналысу өте маңызды. ЕО AI актісі және ұқсас құрылымдар AI ашықтығы мен мөлдірлігінің болашағын қалыптастыруда маңызды рөл атқарады. Осы талқылауларды түсіну және қатысу арқылы сіз нормативтік базалардың AI-дағы ашықтық пен есептілікті тиімді түрде көтермелеуіне кепілдік бере аласыз.

  • Бірнеше өлшемдер бойынша ашықтықты бағалау: бастапқы кодты, деректерді, үлгі салмақтарын және құжаттаманы қоса алғанда, ашықтықтың әртүрлі өлшемдері бойынша AI жүйелерін бағалау үшін негізді пайдаланыңыз. Кешенді бағалау ашықтық туралы үстірт мәлімдемелерге алданбауыңызға және сіз қолданатын AI үлгілері туралы негізделген шешім қабылдауға кепілдік береді.
  • Ашық жуудан сақ болыңыз: бастапқы көзі ашық деп мәлімдейтін, бірақ тек ішінара мөлдірлікті ұсынатын AI үлгілерінен сақ болыңыз. Белгілі бір құрамдас бөліктер ғана қолжетімді болатын селективті ашықтық белгілерін іздеңіз. Бұл тактиканы түсіну ашық бастапқы қағидаларды шынымен ұстанбайтын модельдерге алданып қалмауға көмектеседі.
  • Кешенді құжаттаманы талап етіңіз: AI жүйелеріне арналған егжей-тегжейлі құжаттаманы, соның ішінде оқыту деректері, дәл реттеу процестері және этикалық ойлар туралы ақпаратты талап етіңіз. Бұл мөлдірлік үлгінің мүмкіндіктері мен шектеулерін түсіну үшін өте маңызды. Толық құжаттама AI үлгілерін жақсырақ бағалауға және пайдалануға мүмкіндік береді, бұл сіздің пайдаланып жатқан құралдарыңыз туралы толық хабардар болуыңызды қамтамасыз етеді.
  • AI-арнайы лицензиялауды қолдау: кодты ғана емес, сонымен қатар деректерді, үлгілерді және параметрлерді қамтитын AI-арнайы лицензияларды әзірлеу және қабылдауды жақтаңыз. Бұл компаниялардың ішінара ашықтық артына жасырынуын болдырмауға көмектеседі. Жасанды интеллектке арналған лицензиялар модельдің барлық аспектілерінің ашық және мөлдір болуын қамтамасыз ете отырып, AI дамытудың бірегей міндеттерін шеше алады.
  • Нормативтік құқықтық базамен айналысыңыз: ЕО AI актісі сияқты реттеуші әзірлемелер туралы хабардар болыңыз және осы негіздер AI-дағы ашықтық пен есептілікті тиімді түрде ілгерілететініне көз жеткізу үшін талқылауларға белсенді қатысыңыз. Нормативтік базалармен жұмыс жасау AI болашағын қалыптастыратын саясаттарды әзірлеуде сіздің дауысыңыздың естілуін қамтамасыз етеді.

Қорытынды: Күрделі әлемде AI ашықтығын қамтамасыз ету

Жасанды интеллект әлемі күрделі, беймаза және Open Source қозғалысы бастапқыда өңдеуге арналмаған қиындықтарға толы. Бірақ бұл біз ашықтық, ынтымақтастық және ашықтық идеалдарынан бас тартуымыз керек дегенді білдірмейді. Оның орнына, біз бейімдеу, дамыту және Open Source AI әлі де анықтамаға сәйкес келетін төрт еркіндікті білдіретініне көз жеткізуіміз керек.


Біз осы жаңа әлемді шарлаған кезде, Open Source қауымдастығы, реттеуші органдар және AI әзірлеушілері арасындағы ынтымақтастық өте маңызды болады. Ашық жуу мәселелерін шешу, лицензиялауға деген көзқарасымызды қайта қарастыру және сенімді нормативтік базаларды қолдану арқылы біз инновациялық ғана емес, сонымен бірге этикалық және есеп беретін AI экожүйесін құра аламыз.


AI осында қалады және оның үлкен игілікке қызмет ететініне көз жеткізу бізге байланысты. Сайып келгенде, мен сізге осы маңызды жұмысты зерттеушілерден тікелей осы маңызды ойды қалдырамын:


«Мүмкін, мемлекеттік қаржыландыратын зерттеушілердің ашық жууды шақыруда жол көрсетуі кездейсоқ емес шығар: корпоративтік мүдделерге бей-жай қарамай және AI-ны дүрліктіруге ынталандырусыз, біз артқа шегініп, үлкен технологияның не істеп жатқанын жасыра аламыз және ойлап таба аламыз. оларды жауапкершілікке тартудың сындарлы жолдары». Доктор Лизенфельд.


Бұл зерттеу тобы AI құжаттамасындағы «жеткілікті егжей-тегжейлі қорытынды» іс жүзінде не әкелетініне назар аудара отырып, ЕО AI заңына қатысты бірнеше бастамаларға белсенді қатысады. Бұл жұмыс Mozilla Foundation және Open Future Foundation қорымен бірлесіп жүргізілуде. Команда сонымен қатар технологияны бағалау бойынша академиялық жұмысын жалғастыруда және осы жылдың соңында ашықтықты бағалау үшін қоғамдық ресурс ретінде қызмет ететін жаңа веб-сайтты шығаруды жоспарлап отыр, бұл құралдарды кеңірек жұртшылық үшін қолжетімді етеді. Бұл бастама компанияларды AI-дағы ашықтық үшін жауапкершілікке тарту үшін нақтырақ стандарттар мен шеңберлерді қамтамасыз етуге бағытталған.


Ашық бастапқы AI анықтамасы (OSAID) әлі де қоғамдық шолу және кері байланыс үшін ашық. Open Source AI болашағын қалыптастыруға қатысқыңыз келсе, осы жерде ағымдағы жобаға түсініктемелер жібере аласыз. Анықтаманың соңғы нұсқасы 2024 жылы өтетін All Things Open (ATO) конференциясында жарияланады. Қауымдастық ашық AI дамыту үшін осы маңызды негізді нақтылауды жалғастыратындықтан, қосымша жаңартуларды күтіңіз.


Күннің соңында, егер сіз осы LLM арқылы есептелген тәуекелді қабылдағыңыз келсе, онда сіз бұл тәуекелді өлшеуіңіз керек. Бұл сізге мұны істеудің бірнеше жолын береді деп үміттенемін және жоғарыда ұсынылған шешімдерге қатысты қандай да бір сандық көрсеткіштер немесе жақсартулар болса немесе жалпы осы тақырып бойынша мен мұнда түсіндіре алмаған сұрақтарыңыз болса, маған хабарласуыңызды қалаймын. .


L O A D I N G
. . . comments & more!

About Author

Sal Kimmich HackerNoon profile picture
Sal Kimmich@salkimmich
Focused on the open source software supply chain to build a better digital future for all of us.

ТЕГТЕРДІ АЛУ

БҰЛ МАҚАЛА БАСҚАРҒАН...