Նկար, որը ցույց է տալիս, թե ինչպես կարող են քանակական բաց դատողությունները վերածվել գործող չափումների՝ կշիռներ հատկացնելով հատուկ հատկանիշներին՝ գնահատման գրադիենտ ստեղծելու համար:
Այս բլոգում մենք խորը սուզվում ենք AI-ի բացության բարդությունների մեջ՝ կենտրոնանալով այն բանի վրա, թե ինչպես են բաց կոդով սկզբունքները կիրառվում կամ չեն կիրառվում Լեզուների խոշոր մոդելների (LLMs), ինչպիսիք են BloomZ-ը և Llama 2-ը: Այս հոդվածի ավարտին դուք հասկանալ բաց կոդով լիցենզավորման պատմական համատեքստը, արհեստական ինտելեկտում «բացություն» սահմանելու ներկայիս մարտահրավերները և «բաց լվացման» երևույթը, որը մոլորեցնում է սպառողներին և մշակողներին: Մենք նաև ներկայացնում ենք համապարփակ գնահատման շրջանակ, որը ինտեգրում է բաց կոդով AI սահմանումը (OSAID) այլ շրջանակների լրացուցիչ պատկերացումների հետ, որոնք կօգնեն ձեզ ավելի տեղեկացված որոշումներ կայացնել AI մոդելների վերաբերյալ: Վերջապես, մենք կեզրափակենք գործող լավագույն փորձերը՝ մշակելու կոմպոզիտային դատողություն՝ քանակապես չափելու թափանցիկությունը ցանկացած «Բաց կոդով» լայնալեզու մոդելի համար:
Օգտակար է նաև ուսումնասիրել այլընտրանքներ, որոնք լրացնում են լայնորեն ընդունված սահմանումները: Քանի որ մենք կքննարկենք, որոշ հեռանկարներ, ներառյալ վերջին վերլուծությունները, հուշում են, որ այնպիսի շրջանակներ, ինչպիսին է բաց կոդով AI սահմանումը (OSAID) օգտվում են լրացուցիչ հարթություններից, մասնավորապես, թե ինչպես են դրանք լուծում այնպիսի խնդիրների, ինչպիսիք են տվյալների թափանցիկությունը: Model Openness Framework-ը և դրա արմատները Բաց գիտության սկզբունքներում առաջարկում են լրացուցիչ հեռանկար, որը կարող է ծառայել որպես լրացուցիչ ուղեցույց՝ AI-ի բացությունը գնահատելու համար: Մենք դեռ գտնվում ենք այս տարածքում կանոնակարգային համապատասխանության ամենավաղ օրերին:
Արհեստական ինտելեկտի աշխարհը բարդ է և արագ զարգացող՝ հաճախ բաց կոդով սկզբունքները հասցնելով իրենց սահմանների: Այս նրբերանգները հասկանալը կենսական նշանակություն ունի մշակողների, հետազոտողների և սպառողների համար, ովքեր ցանկանում են ապահովել, որ AI համակարգերը ոչ միայն նորարար են, այլև թափանցիկ, էթիկական և հաշվետու: «Բաց լվացման» աճով, որտեղ արհեստական ինտելեկտի մոդելները կեղծ կերպով վաճառվում են որպես բաց կոդով, ավելի կարևոր է, քան երբևէ, այս պնդումները գնահատելու ամուր շրջանակ ունենալը: Հագեցված լինելով այս գիտելիքով` դուք կարող եք տեղեկացված որոշումներ կայացնել, որոնք համահունչ են AI-ի մշակման բացության և թափանցիկության իրական արժեքներին:
Հասկանալու համար, թե ուր ենք մենք գնում, կարևոր է իմանալ, թե որտեղ ենք եղել: Բաց կոդով շարժումը ծնվել է 1980-ականներին սեփական ծրագրային ապահովման աճող գերակայության դեմ ապստամբության արդյունքում, երբ Ազատ ծրագրակազմի հիմնադրամը (FSF) ներկայացրեց GNU Ընդհանուր հանրային լիցենզիան (GPL): Այս լիցենզիան փոխում էր խաղը, որը երաշխավորում էր օգտատերերին ծրագրակազմ օգտագործելու, փոփոխելու և համօգտագործելու ազատությունը՝ հիմնականում իշխանությունը վերադարձնելով մշակողների և օգտատերերի ձեռքին:
Շուտով մինչև 1990-ականների վերջ, և Բաց կոդով նախաձեռնությունը (OSI) ստեղծվեց՝ խթանելու և պաշտպանելու Բաց կոդով ծրագրակազմը՝ հաստատելով լիցենզիաները, որոնք համապատասխանում են Բաց կոդով սահմանմանը (OSD): OSD-ն օրենք է սահմանել այն մասին, ինչը կարելի է և չի կարելի անվանել «բաց կոդով»՝ ապահովելով, որ տերմինը չջնջվի կամ չարաշահվի:
Մուտք գործեք արհեստական ինտելեկտի աշխարհ, որտեղ բաց և փակ համակարգերի միջև գծերն էլ ավելի մշուշոտ են դառնում: Լեզուների խոշոր մոդելները (LLM), ինչպիսիք են GPT-3-ը կամ դրա հաջորդները, ծառայում են որպես հիմնական օրինակներ, թե ինչպես «բաց կոդով» կարող է խաբուսիկ տերմին լինել AI լանդշաֆտում: LLM-ները արհեստական ինտելեկտի բարդ համակարգեր են, որոնք վերապատրաստվել են տվյալների զանգվածային հավաքածուների վրա՝ մարդունման տեքստ ստեղծելու համար: Այս մոդելները զգալի հետաքրքրություն և ներդրումներ են առաջացրել՝ շնորհիվ բազմաթիվ առաջադրանքների կատարման ունակության՝ թարգմանությունից մինչև ստեղծագործական գրություն: Այնուամենայնիվ, չնայած այս մոդելների տպավորիչ հնարավորություններին, «բացության» հասկացությունը հաճախ թերանում է, երբ ուշադիր ուսումնասիրվում է:
Իրենց վերլուծության մեջ հետազոտողներ դոկտոր Լիզենֆելդը և նրա թիմը համեմատում են BloomZ-ը և Llama 2-ը՝ երկու նշանավոր LLM-ները, որպես բացության տարբեր աստիճանի օրինակներ «Վերանայել բաց կոդով գեներատիվ AI. Open-Washing and the EU AI Act »-ը: AI. Այս համեմատությունը առաջարկում է գործնական ցուցադրություն, թե ինչպես կիրառել բացության մատրիցը գեներատիվ AI մոդելների համար.
BloomZ-ը ներկայացնում է մի մոդել, որն իսկապես ընդունում է բաց կոդով սկզբունքները՝ սահմանելով AI-ի թափանցիկության և մատչելիության բարձր ստանդարտ:
Ի կտրուկ հակադրություն, Llama 2-ը ներկայացնում է «բաց լվացման» հայեցակարգը, որտեղ բաց կոդով պիտակը կիրառվում է առանց բացության սկզբունքներին լիովին համապատասխանելու:
Հասանելիություն . Ի տարբերություն, Llama 2-ը հասանելի չի դարձնում իր սկզբնական կոդը: Համօգտագործվում են միայն մոդելը գործարկելու սկրիպտները, և LLM-ի տվյալները անորոշ նկարագրված են՝ կորպորատիվ նախնական տպագրության մեջ տրված սահմանափակ մանրամասներով: Բազային մոդելի կշիռներին հասանելիությունը սահմանափակված է, ինչը պահանջում է համաձայնության ձև, իսկ հրահանգների թյունինգի համար օգտագործվող տվյալները մնում են չբացահայտված՝ հետագայում սահմանափակելով թափանցիկությունը:
Փաստաթղթեր . Llama 2-ի համար փաստաթղթերը նվազագույն են, իսկ սկզբնական կոդը բաց չէ: Ճարտարապետությունը նկարագրված է ավելի քիչ մանրամասն՝ ցրված կորպորատիվ կայքերում և մեկ նախնական տպագրություն : Ի տարբերություն BloomZ-ի, Llama-ն չունի իր ուսումնական տվյալների հավաքածուների, հրահանգների թյունինգի և ճշգրտման գործընթացների համապարփակ փաստաթղթեր:
Մուտք և լիցենզավորում . Llama 2-ը հասանելի է գաղտնիությունը խախտող գրանցման ձևի հետևում, և դրա արտոնագրումը իրականացվում է Meta-ի սեփական Համայնքի լիցենզիայի ներքո: Այս լիցենզիան ավելի քիչ խիստ է, քան BloomZ-ի RAIL-ը, ավելի ցածր սանդղակով, թե ինչպես է ներկայացված գեներացված բովանդակությունը, ինչը տեղ է թողնում պոտենցիալ ապակողմնորոշող հավելվածների համար:
BloomZ-ի և Llama 2-ի համեմատությունը ընդգծում է բացության նկատմամբ նրանց մոտեցման կտրուկ տարբերությունները: BloomZ-ը մոդելի վառ օրինակ է, որն իսկապես ընդունում է բաց կոդով սկզբունքները՝ իր ծածկագրի, տվյալների և փաստաթղթերի թափանցիկությամբ: Ի հակադրություն, Llama 2-ը ներկայացնում է «բաց լվացման» օրինակը, որտեղ մոդելը պիտակավորված է որպես բաց կոդով, բայց իրական բացության շատ ասպեկտներում պակասում է, քանի որ միայն մոդելի կշիռները հասանելի են սահմանափակող պայմաններով: Այս համեմատությունն ընդգծում է AI-ի բացության ավելի նրբերանգ ընկալման անհրաժեշտությունը և մոդելների գնահատման կարևորությունը՝ հիմնված չափանիշների համապարփակ փաթեթի վրա, այլ ոչ թե բաց լինելու մակերեսային պնդումների վրա:
«Բաց լվացումը» բաց կոդով պիտակի վրա ապտակելու պրակտիկա է, որն իրականում բաց չէ: Արհեստական ինտելեկտի աշխարհում բաց լվացումը լայն տարածում ունի, երբ ընկերություններն առաջարկում են իրենց AI համակարգերի կտորներ և կտորներ՝ միաժամանակ պահելով ամենակարևոր բաղադրիչները կողպեքի և բանալիների տակ:
Հետազոտական հոդվածը խորանում է AI-ի բաց լվացման կեղտոտ մանրամասների մեջ՝ ընդգծելով որոշ հիմնական մարտահրավերներ.
Բաղադրյալ բացություն. AI-ի բաց լինելը բոլորին հարմար հասկացություն չէ: Դա շատ կտորներով գլուխկոտրուկ է, և յուրաքանչյուր կտոր նպաստում է համակարգի ընդհանուր թափանցիկությանը: Այնուամենայնիվ, շատ հաճախ ընկերությունները թողարկում են միայն որոշ կտորներ, ինչը հանգեցնում է բացության մոլորեցնող զգացողության: Հետազոտությունը ներկայացնում է գրադիենտ բացության հայեցակարգը՝ ընդգծելով, որ AI-ի բացությունը պետք է դիտարկվի որպես սպեկտր, այլ ոչ թե երկուական վիճակ: Արհեստական ինտելեկտի համակարգի տարբեր բաղադրիչները՝ աղբյուրի կոդը, տվյալները, մոդելները, կարող են բաց լինել տարբեր աստիճանի, և կարևոր է յուրաքանչյուր բաղադրիչն առանձին գնահատել: Հասկանալով այս գրադիենտը՝ մենք կարող ենք ավելի լավ գնահատել AI համակարգերի իսկական բաց լինելը և խուսափել մասնակի թափանցիկության պատճառով մոլորվելուց:
Ընտրովի բացություն. AI որոշ մոդելներ թողարկվում են բավականաչափ բացությամբ, որպեսզի կարողանան հաղթահարել, սովորաբար մոդելի կշիռները, բայց կարևոր բաղադրիչները, ինչպիսիք են տվյալները և վերապատրաստման գործընթացը, մնում են սեփականության իրավունք: Այս ընտրովի բացությունը թափանցիկության կիսատ փորձ է, որն ավելի շատ վնաս է տալիս, քան օգուտ: Միայն մասնակի մուտք ապահովելով, ընկերությունները կարող են պահանջել բաց լինել՝ իրականում չապահովելով լիարժեք թափանցիկություն, որն անհրաժեշտ է իմաստալից համագործակցության և փոխըմբռնման համար:
Կարգավորող բացեր. ԵՄ AI ակտը, որը բարենպաստ կարգավորող շրջանակ է, կարող է ակամա խրախուսել բաց լվացումը` թույլ տալով բաց լիցենզիաներով թողարկված AI մոդելներին շրջանցել մանրամասն փաստաթղթերի պահանջները: Այս սողանցքը կարող է հանգեցնել արհեստական ինտելեկտի համակարգերի հեղեղի, որոնք «բաց» են միայն իրենց անունով, առանց իրական թափանցիկության: Թեև նման կանոնակարգերի հիմքում ընկած նպատակը բացության խթանումն է, առանց զգույշ իրականացման և վերահսկողության, դրանք կարող են շահագործվել՝ առանց էության բաց լինելու պատրանք ստեղծելու համար:
Ջուլիա Ֆերայոլին նաև անդրադառնում է բաց լվացման խնդրին իր բլոգային գրառման մեջ՝ նշելով. «Խնդրի էությունը կայանում է նրանում, որ «բաց կոդով» տերմինները երկարացվում և վերասահմանվում են՝ համապատասխանեցնելու խոշոր ընկերությունների օրակարգին, որոնք ավելի շատ հետաքրքրված են շուկայավարմամբ։ քան իրական թափանցիկության և համագործակցության մեջ»: Այս պատկերացումն ամրապնդում է գնահատման կայուն շրջանակի անհրաժեշտությունը՝ այս ապակողմնորոշիչ պնդումները մաղելու համար:
Մոդելի բացության շրջանակը , որը ներկայացվել է վերջին քննարկումներում, լրացնում է այս պատկերացումներից մի քանիսը` առաջարկելով թափանցիկության նկատմամբ բաց գիտությանը համահունչ մոտեցում: Թեև բաց կոդով արհեստական ինտելեկտի սահմանումը (OSAID) ամուր հիմք է տալիս, ոլորտում շատերը, ներառյալ որոշ հետազոտողներ, կարծում են, որ այն կարող է բավականաչափ հեռու չգնալ, հատկապես, երբ խոսքը վերաբերում է տվյալների թափանցիկությանը: Համեմատության համար, Model Openness Framework-ը սահմանում է ավելի խիստ չափանիշ՝ ընդգծելով ոչ միայն կոդի բաց լինելը, այլ նաև տվյալների հավաքածուների, մեթոդաբանությունների և ուսուցման գործընթացների առկայությունը՝ բաց գիտության արժեքներին համապատասխան:
Ընդլայնվում է գրադիենտ բացությամբ
Հիմնվելով OSAID-ի վրա՝ գրադիենտ բացության հայեցակարգը նրբերանգ է հաղորդում գնահատման գործընթացին: Առանձին-առանձին գնահատելով AI համակարգի յուրաքանչյուր բաղադրիչ՝ աղբյուր կոդը, տվյալներ, մոդելներ, մենք կարող ենք ավելի լավ հասկանալ թափանցիկության և հրապարակայնության իրական մակարդակը:
Նշված այս փաստաթուղթն առաջարկում է հետազոտության հիմնական պատկերացումները.
Լիցենզավորման ճշգրտումների մարտահրավերները. Ավանդական բաց կոդով լիցենզիաները նախատեսված էին ծրագրային ապահովման համար, այլ ոչ թե արհեստական ինտելեկտի բարդ, բազմակողմանի բնույթի համար: Թերթը պնդում է, որ արտոնագրման նոր ռազմավարություններ են անհրաժեշտ՝ լուծելու արհեստական ինտելեկտի եզակի մարտահրավերները: Այս լիցենզիաները պետք է ապահովեն, որ ոչ միայն աղբյուրի կոդը, այլև տվյալները, մոդելները և պարամետրերը ծածկված են բաց կոդով սկզբունքներով: Լիցենզավորման այս ամբողջական մոտեցումը կարևոր է AI-ի դարաշրջանում բաց կոդով շարժման ամբողջականությունը պահպանելու համար:
Էթիկական նկատառումներ. Տեխնիկական բացությունից բացի, փաստաթուղթը նաև ընդգծում է էթիկական նկատառումների կարևորությունը արհեստական ինտելեկտի զարգացման և տեղակայման գործում: Այն մատնանշում է, որ AI համակարգերում արդարության, հաշվետվողականության և թափանցիկության ապահովումը ոչ միայն տեխնիկական մարտահրավեր է, այլ բարոյական հրամայական: Արհեստական ինտելեկտի զարգացման էթիկական հարթությունը պետք է ներառվի բացության ցանկացած քննարկման մեջ, քանի որ թափանցիկությունն առանց պատասխանատվության կարող է հանգեցնել զգալի վնասի:
Գործնական մոտեցում. Հետազոտողները նախանշում են մի քանի խելամիտ ուղիներ՝ կատեգորիկ հուսալիություն հաստատելու նույնիսկ կոմպոզիտային լիցենզիայի դեպքում: Ինտեգրելով բաց կոդով AI սահմանումը (OSAID) այս ավելի խորը պատկերացումների հետ՝ մենք կարող ենք կառուցել ավելի ամուր շրջանակ՝ AI համակարգերը գնահատելու համար: Այս մոտեցումը թույլ է տալիս ավելի նրբերանգ և համապարփակ գնահատել արհեստական ինտելեկտի մոդելները՝ ապահովելով, որ դրանք համապատասխանում են բացության և տեխնիկական և էթիկական չափանիշներին:
AI-ի բացության առավել նրբերանգ մարտահրավերներից մեկը LLM տարբերակման խնդիրն է: Ի տարբերություն ավանդական ծրագրային փաթեթների, որտեղ տարբերակների թարմացումները սովորաբար լավ փաստաթղթավորված և թափանցիկ են, LLM-ները կարող են ենթարկվել թարմացումների, որոնք անթափանց են՝ օգտատերերին թողնելով մթության մեջ, թե ինչ է փոխվել: Թափանցիկության այս բացակայությունը նման է օպերացիոն համակարգի թարմացում տեղադրելուն՝ առանց իմանալու, թե ինչ է փոփոխվել, բացառությամբ, որ LLM-ների դեպքում, խաղադրույքները, անկասկած, ավելի մեծ են:
ՕՀ-ի համեմատություն. Պատկերացրեք, որ ձեր համակարգչում օպերացիոն համակարգ եք տեղադրում և պարբերաբար թարմացումներ եք ստանում: Սովորաբար, դուք պետք է ակնկալեք տեսնել փոփոխության մատյան, որտեղ մանրամասն նկարագրված է, թե ինչ է ուղղվել, բարելավվել կամ ավելացվել: Այս թափանցիկությունը շատ կարևոր է, որպեսզի օգտվողները հասկանան իրենց համակարգի վիճակը: Այժմ դիտարկեք LLM-ը, որը շարունակաբար թարմացվում է առանց որևէ նման թափանցիկության: Օգտագործողները կարող են աշխատել այնպիսի մոդելի հետ, որը փոխվել է նուրբ կամ նշանակալի ձևերով՝ առանց այդ փոփոխությունների հստակ ըմբռնման: Թափանցիկության այս բացակայությունը կարող է հանգեցնել խնդիրների՝ սկսած նսեմացված կատարողականից մինչև էթիկական մտահոգություններ, քանի որ մոդելը կարող է անսպասելի վարքագիծ դրսևորել: Համեմատությունը ընդգծում է արհեստական ինտելեկտի մոդելների օգտագործման հետ կապված ռիսկերը, որոնք թափանցիկ չեն դրանց թարմացումների վերաբերյալ՝ ընդգծելով պարզ և մատչելի տարբերակման տեղեկատվության անհրաժեշտությունը:
Անթափանց թարմացումների ռիսկերը. առանց թափանցիկության, օգտվողները չեն կարող լիովին վստահել AI համակարգերին, որոնք օգտագործում են: Ճիշտ այնպես, ինչպես դուք չէիք տեղադրի OS-ի թարմացում՝ առանց իմանալու, թե ինչ է փոխվել, այնպես էլ անթափանց թարմացումների ենթարկվող LLM-ի վրա հույս դնելը ռիսկային է: Սա հատկապես մտահոգիչ է բարձր ցցերի միջավայրերում, որտեղ AI-ն օգտագործվում է որոշումների կայացման գործընթացների համար, որոնք ազդում են իրական կյանքի վրա: Եթե LLM-ի թարմացումը նոր կողմնակալություններ է ներկայացնում կամ հեռացնում է կարևոր գործառույթները, հետևանքները կարող են ծանր լինել: Թափանցիկության բացակայությունը ոչ միայն խաթարում է օգտատերերի վստահությունը, այլ նաև էական էթիկական և գործառնական ռիսկեր է առաջացնում:
Այս մարտահրավերներին կողմնորոշվելու համար մենք ներկայացնում ենք համապարփակ գնահատման շրջանակ, որը համատեղում է բաց կոդով AI սահմանման (OSIAID) ուժեղ կողմերը վերջին հետազոտությունների ավելի խորը պատկերացումների հետ: Այս շրջանակը նպատակ ունի ապահովելու արհեստական ինտելեկտի համակարգերի բացությունը գնահատելու ավելի ամուր մեթոդ:
OSIAID-ը որպես հիմնադրամ. Բաց կոդով արհեստական ինտելեկտի սահմանումը ամուր հիմք է տալիս հասկանալու համար, թե ինչ է իրենից ներկայացնում բաց կոդով AI համակարգը: Այն սահմանում է թափանցիկության, մատչելիության և էթիկական օգտագործման հստակ չափանիշներ՝ ապահովելով, որ արհեստական ինտելեկտի մոդելները համապատասխանում են բացության նվազագույն չափորոշիչներին: Հավատարիմ մնալով OSIAID-ին, մշակողները և օգտվողները կարող են վստահ լինել, որ AI մոդելը համապատասխանում է բացության և թափանցիկության հիմնական չափանիշներին:
Ընդլայնվելով գրադիենտ բացությամբ. Հիմնվելով OSIAID-ի վրա՝ գրադիենտ բացության հայեցակարգը նրբերանգ է հաղորդում գնահատման գործընթացին: Առանձին-առանձին գնահատելով AI համակարգի յուրաքանչյուր բաղադրիչ՝ աղբյուր կոդը, տվյալներ, մոդելներ, մենք կարող ենք ավելի լավ հասկանալ թափանցիկության և հրապարակայնության իրական մակարդակը: Սրանք կարող են լինել ձեր սեփական կազմակերպության ռիսկային ախորժակի և շրջանակի ցուցանիշներ կամ ստանդարտացված կազմակերպությունների միջև: Այս մոտեցումը թույլ է տալիս ավելի մանրամասն և ճշգրիտ գնահատել AI մոդելները՝ բացահայտելով այն ոլորտները, որտեղ բացությունն ուժեղ է և որտեղ այն կարող է բարելավման կարիք ունենալ:
Անդրադառնալով էթիկական և իրավական հետևանքներին՝ շրջանակը նաև ներառում է էթիկական և իրավական նկատառումներ՝ ապահովելով, որ AI համակարգերը ոչ միայն տեխնիկապես բաց են, այլև համահունչ են ավելի լայն հասարակական արժեքներին և իրավական պահանջներին: Այս նկատառումները ինտեգրելով՝ շրջանակն ապահովում է, որ բաց լինելը վերաբերում է ոչ միայն տեխնիկական թափանցիկությանը, այլև էթիկական և իրավական չափանիշներին, որոնք կարևոր են AI-ի զարգացման համար:
Ջուլիա Ֆերայոլիի շեշտադրումը հստակ սահմանումների անհրաժեշտության և բաց կոդով սկզբունքներին հավատարմության վրա արձագանքում է այս մոտեցմանը: Նա գրում է. «Բաց կոդով համայնքը պետք է ամուր կառչած լինի իր արժեքներին՝ ապահովելով, որ ցանկացած շեղում դիմավորվի քննադատական հսկողությամբ և թափանցիկության պահանջով»: Այս պրակտիկան նախագծված է բավարարելու այդ կարիքը՝ ապահովելով ամուր և համապարփակ շրջանակ AI համակարգերի գնահատման համար:
Քանի որ AI-ի կարգավորման լանդշաֆտը շարունակում է զարգանալ, կարևոր է մնալ տեղեկացված և ներգրավված լինել կարգավորող զարգացումներով: ԵՄ AI ակտը և նմանատիպ շրջանակները նշանակալի դեր կխաղան AI-ի բացության և թափանցիկության ապագայի ձևավորման գործում: Հասկանալով և մասնակցելով այս քննարկումներին՝ դուք կարող եք օգնել ապահովելու, որ կարգավորող շրջանակները արդյունավետորեն խթանեն AI-ի թափանցիկությունն ու հաշվետվողականությունը:
AI-ի աշխարհը բարդ է, խառնաշփոթ և լի մարտահրավերներով, որոնց համար ի սկզբանե նախատեսված չէր Open Source շարժումը: Բայց դա չի նշանակում, որ մենք պետք է հրաժարվենք թափանցիկության, համագործակցության և բաց լինելու իդեալներից: Փոխարենը, մենք պետք է հարմարվենք, զարգանանք և ապահովենք, որ բաց կոդով AI-ն դեռ ներկայացնում է սահմանմանը համապատասխանելու համար անհրաժեշտ չորս ազատությունները:
Երբ մենք նավարկենք այս նոր աշխարհում, բաց կոդով համայնքի, կարգավորող մարմինների և AI ծրագրավորողների համագործակցությունը վճռորոշ կլինի: Անդրադառնալով բաց լվացման մարտահրավերներին, վերանայելով լիցենզավորման մեր մոտեցումը և ընդունելով կայուն կարգավորող շրջանակները՝ մենք կարող ենք կառուցել արհեստական ինտելեկտի էկոհամակարգ, որը ոչ միայն նորարար է, այլև էթիկական և հաշվետու:
AI-ն այստեղ մնալու համար է, և մեզնից է կախված՝ համոզվել, որ այն ծառայում է ավելի մեծ օգուտին: Ի վերջո, ես ձեզ կթողնեմ այս կարևոր միտքը անմիջապես այս կարևոր աշխատանքի հետազոտողների կողմից.
«Հնարավոր է, պատահական չէ, որ հանրային ֆինանսավորմամբ հետազոտողները առաջ են տանում բաց լվացում կոչելու ճանապարհը. չհետևելով կորպորատիվ շահերին և առանց արհեստական ինտելեկտի գովազդի խրախուսման, մենք կարող ենք մի քայլ հետ գնալ և բացահայտել այն, ինչ անում է մեծ տեխնոլոգիան. նրանց պատասխանատվության ենթարկելու կառուցողական ուղիներ»։ Դոկտոր Լիզենֆելդ.
Այս հետազոտական թիմը ակտիվորեն ներգրավված է ԵՄ AI ակտի հետ կապված մի շարք նախաձեռնություններում, մասնավորապես կենտրոնանալով այն բանի վրա, թե գործնականում ինչ է ենթադրում «բավականաչափ մանրամասն ամփոփում» AI փաստաթղթերում: Այս աշխատանքն իրականացվում է Mozilla հիմնադրամի և Open Future հիմնադրամի հետ համատեղ: Թիմը նաև շարունակում է իր ակադեմիական աշխատանքը տեխնոլոգիաների գնահատման վերաբերյալ և նախատեսում է թողարկել նոր կայք այս տարվա վերջին, որը կծառայի որպես բաց գնահատման հանրային ռեսուրս՝ այս գործիքներն ավելի մատչելի դարձնելով ավելի լայն հանրության համար: Այս նախաձեռնությունը նպատակ ունի ապահովել ավելի հստակ չափանիշներ և շրջանակներ՝ ընկերություններին պատասխանատվության ենթարկելու արհեստական ինտելեկտի թափանցիկության համար:
Բաց կոդով AI սահմանումը (OSAID) դեռևս բաց է հանրային վերանայման և հետադարձ կապի համար: Եթե ցանկանում եք մասնակցել Open Source AI-ի ապագայի ձևավորմանը, կարող եք մեկնաբանություններ ներկայացնել ընթացիկ նախագծի վերաբերյալ այստեղ : Սահմանման վերջնական տարբերակը կհայտարարվի All Things Open (ATO) կոնֆերանսում, որը տեղի կունենա 2024 թվականին: Հետևե՛ք ավելի շատ թարմացումների, քանի որ համայնքը շարունակում է կատարելագործել այս կարևոր շրջանակը բաց AI-ի զարգացման համար:
Օրվա վերջում, եթե դուք պատրաստվում եք հաշվարկված ռիսկի դիմել՝ օգտագործելով այս LLM-ները, ապա դուք պետք է չափեք այդ ռիսկը: Հուսով եմ, որ սա ձեզ տալիս է դա անելու մի քանի եղանակ, և ես բացարձակապես ցանկանում եմ, որ դուք դիմեք ինձ, եթե ունեք քանակական չափումներ կամ բարելավումներ վերևում առաջարկված լուծումներում, կամ ընդհանրապես այս թեմայի վերաբերյալ որևէ հարց, որը ես չկարողացա անդրադառնալ այստեղ: .