Belirli özelliklere ağırlık atayarak değerlendirme gradyanı oluşturarak nicel açıklık yargılarının nasıl eyleme dönüştürülebilir metriklere dönüştürülebileceğini gösteren şekil.
Bu blogda, Yapay Zeka açıklığının karmaşıklıklarına derinlemesine dalıyoruz ve Açık Kaynak ilkelerinin BloomZ ve Llama 2 gibi Büyük Dil Modellerine (LLM) nasıl uygulandığına veya uygulanamadığına odaklanıyoruz. Bu makalenin sonunda, Açık Kaynak lisanslamanın tarihsel bağlamını, Yapay Zeka'da "açıklık" tanımlamadaki mevcut zorlukları ve tüketicileri ve geliştiricileri aynı şekilde yanıltan "açık yıkama" olgusunu anlayacaksınız. Ayrıca, Yapay Zeka modelleri hakkında daha bilinçli kararlar almanıza yardımcı olmak için Açık Kaynak Yapay Zeka Tanımını (OSAID) diğer çerçevelerden gelen tamamlayıcı içgörülerle bütünleştiren kapsamlı bir değerlendirme çerçevesi sunuyoruz. Son olarak, herhangi bir "Açık Kaynak" büyük dil modeli için şeffaflığı nicel olarak ölçmek üzere bileşik yargıyı geliştirmek için eyleme geçirilebilir en iyi uygulamalarla bitireceğiz.
Yaygın olarak kabul görmüş tanımları tamamlayan alternatifleri keşfetmek de faydalıdır. Tartışacağımız gibi, bazı bakış açıları (son analizler dahil) Açık Kaynaklı AI Tanımı (OSAID) gibi çerçevelerin özellikle veri şeffaflığı gibi konuları nasıl ele aldıkları konusunda ek boyutlardan faydalandığını öne sürüyor. Model Açıklık Çerçevesi ve Açık Bilim ilkelerindeki kökleri, AI açıklığını değerlendirmek için ek bir kılavuz görevi görebilecek tamamlayıcı bir bakış açısı sunuyor. Bu alanda hala düzenleyici uyumluluğun en erken günlerindeyiz.
Yapay zeka dünyası karmaşıktır ve hızla gelişmektedir, sıklıkla açık kaynak ilkelerini sınırlarına kadar zorlar. Bu nüansları anlamak, yapay zeka sistemlerinin yalnızca yenilikçi değil aynı zamanda şeffaf, etik ve hesap verebilir olmasını sağlamak isteyen geliştiriciler, araştırmacılar ve tüketiciler için hayati önem taşır. Yapay zeka modellerinin yanlış bir şekilde açık kaynak olarak pazarlandığı "açık yıkama"nın yükselişiyle birlikte, bu iddiaları değerlendirmek için sağlam bir çerçeveye sahip olmak her zamankinden daha önemlidir. Bu bilgiyle donatılarak, yapay zeka geliştirmede açıklık ve şeffaflığın gerçek değerleriyle uyumlu bilinçli kararlar alabilirsiniz.
Nereye gittiğimizi anlamak için, nereden geldiğimizi bilmek önemlidir. Açık Kaynak hareketi, 1980'lerde Özgür Yazılım Vakfı'nın (FSF) GNU Genel Kamu Lisansı'nı (GPL) tanıtmasıyla, tescilli yazılımların artan hakimiyetine karşı bir isyandan doğmuştur. Bu lisans, kullanıcılara yazılımı kullanma, değiştirme ve paylaşma özgürlüğünü garanti ederek oyunun kurallarını değiştirmiştir; esasen gücü geliştiricilerin ve kullanıcıların ellerine geri vermiştir.
1990'ların sonuna doğru hızlıca ilerleyelim ve Açık Kaynak Tanımı'na (OSD) uyan lisansları onaylayarak Açık Kaynak yazılımlarını tanıtmak ve korumak için Açık Kaynak Girişimi (OSI) kuruldu. OSD, "açık kaynak" olarak adlandırılabilecek ve adlandırılamayacak olan şeyler için yasayı koydu ve terimin sulandırılmamasını veya kötüye kullanılmamasını sağladı.
Yapay zeka dünyasına girin, burada açık ve kapalı sistemler arasındaki çizgiler daha da bulanıklaşıyor. GPT-3 veya halefleri gibi Büyük Dil Modelleri (LLM'ler), "açık kaynak"ın yapay zeka manzarasında nasıl yanıltıcı bir terim olabileceğinin başlıca örnekleri olarak hizmet ediyor. LLM'ler, insan benzeri metinler üretmek için devasa veri kümeleri üzerinde eğitilen karmaşık yapay zeka sistemleridir. Bu modeller, çeviriden yaratıcı yazıma kadar çok çeşitli görevleri yerine getirme yetenekleri nedeniyle önemli ilgi ve yatırım uyandırdı. Ancak, bu modellerin etkileyici yeteneklerine rağmen, "açıklık" kavramı yakından incelendiğinde genellikle yetersiz kalıyor.
"Açık Kaynaklı Üretken Yapay Zekayı Yeniden Düşünmek: Açık Yıkama ve AB Yapay Zeka Yasası" adlı araştırma makalesinde, araştırmacılar Dr. Liesenfeld ve ekibi analizlerinde, yapay zekada farklı derecelerde açıklığın örnekleri olarak BloomZ ve Llama 2'yi, iki önemli LLM'yi karşılaştırıyor. Bu karşılaştırma, üretken yapay zeka modellerine bir açıklık matrisinin nasıl uygulanacağına dair pratik bir gösterim sunuyor:
BloomZ, yapay zekada şeffaflık ve erişilebilirlik konusunda yüksek standartlar belirleyen, açık kaynak ilkelerini gerçek anlamda benimseyen bir modeli temsil ediyor.
Buna karşın Llama 2, açıklık ilkelerine tam anlamıyla uyulmadan açık kaynak etiketinin uygulandığı "açık yıkama" kavramına örnek teşkil ediyor.
Kullanılabilirlik : Tam tersine, Llama 2 kaynak kodunu kullanıma sunmaz. Yalnızca modeli çalıştırma komut dosyaları paylaşılır ve LLM verileri belirsiz bir şekilde açıklanır, sınırlı ayrıntılar kurumsal bir ön baskıda sağlanır. Temel model ağırlıklarına erişim kısıtlanmıştır, bir onay formu gerektirir ve talimat ayarlaması için kullanılan veriler açıklanmadan kalır, bu da şeffaflığı daha da sınırlar.
Belgeleme : Llama 2 için belgeler asgari düzeydedir ve kaynak kodun kendisi açık değildir. Mimari daha az ayrıntılı olarak açıklanmış olup, kurumsal web sitelerine ve tek bir ön baskıya dağılmıştır. BloomZ'den farklı olarak, Llama eğitim veri kümelerinin, talimat ayarlamalarının ve ince ayar süreçlerinin kapsamlı belgelendirmesinden yoksundur.
Erişim ve Lisanslama : Llama 2, gizliliği hiçe sayan bir kayıt formunun arkasında mevcuttur ve lisanslaması Meta'nın kendi Topluluk Lisansı altında işlenir. Bu lisans, BloomZ'nin RAIL'inden daha az katıdır ve üretilen içeriğin nasıl temsil edileceğine dair daha düşük bir çıtaya sahiptir ve potansiyel olarak yanıltıcı uygulamalara yer bırakır.
BloomZ ve Llama 2 arasındaki karşılaştırma, açıklığa yaklaşımlarındaki belirgin farklılıkları vurgular. BloomZ, kodunda, verilerinde ve belgelerinde şeffaflıkla açık kaynak ilkelerini gerçekten benimseyen bir modelin başlıca örneğidir. Buna karşılık, Llama 2, modelin açık kaynak olarak etiketlendiği ancak gerçek açıklığın çoğu yönünde eksik kaldığı ve yalnızca model ağırlıklarının kısıtlayıcı koşullar altında erişilebilir olduğu "açık yıkama"yı örneklendirir. Bu karşılaştırma, yapay zekada açıklığın daha ayrıntılı bir şekilde anlaşılmasına duyulan ihtiyacı ve yüzeysel açıklık iddialarına güvenmek yerine modelleri kapsamlı bir kriter kümesine göre değerlendirmenin önemini vurgular.
"Açık yıkama", gerçekten açık olmayan bir şeye açık kaynaklı etiketi yapıştırma uygulamasıdır. Yapay zeka dünyasında, şirketlerin en önemli bileşenleri kilit altında tutarken yapay zeka sistemlerinin parçalarını sunmasıyla açık yıkama yaygındır.
Araştırma makalesi, yapay zekada açık yıkama işleminin kirli ayrıntılarını ele alıyor ve bazı temel zorlukları vurguluyor:
Bileşik Açıklık: Yapay Zeka'daki açıklık tek bir kalıba uyan bir kavram değildir. Birçok parçası olan bir bulmacadır ve her parça sistemin genel şeffaflığına katkıda bulunur. Ancak, şirketler çoğu zaman yalnızca parçaların bir kısmını yayınlar ve bu da yanıltıcı bir açıklık hissine yol açar. Araştırma, yapay zekadaki açıklığın ikili bir durumdan ziyade bir spektrum olarak görülmesi gerektiğini vurgulayarak gradyan açıklığı kavramını ortaya koyar. Bir yapay zeka sisteminin farklı bileşenleri (kaynak kodu, veri, modeller) farklı derecelerde açık olabilir ve her bileşeni ayrı ayrı değerlendirmek çok önemlidir. Bu gradyanı anlayarak yapay zeka sistemlerinin gerçek açıklığını daha iyi değerlendirebilir ve kısmi şeffaflık tarafından yanlış yönlendirilmekten kaçınabiliriz.
Seçici Açıklık: Bazı AI modelleri, genellikle model ağırlıkları olmak üzere, idare edebilecek kadar açıklıkla yayınlanır ancak veri ve eğitim süreci gibi kritik bileşenler, tescilli kalır. Bu seçici açıklık, yarardan çok zarar veren, yarı pişmiş bir şeffaflık girişimidir. Şirketler, yalnızca kısmi erişim sağlayarak, anlamlı iş birliği ve anlayış için gereken tam şeffaflığı sağlamadan açıklık iddia edebilirler.
Düzenleyici Boşluklar: İyi niyetli bir düzenleyici çerçeve olan AB AI Yasası, açık lisanslar altında yayınlanan AI modellerinin ayrıntılı dokümantasyon gerekliliklerini atlatmasına izin vererek istemeden açık yıkamayı teşvik edebilir. Bu boşluk, yalnızca ismen "açık" olan ve gerçek şeffaflığı çok az veya hiç olmayan AI sistemlerinin seline yol açabilir. Bu tür düzenlemelerin ardındaki amaç açıklığı teşvik etmek olsa da, dikkatli bir uygulama ve denetim olmadan, içerik olmadan açıklık yanılsaması yaratmak için kullanılabilirler.
Julia Ferraioli ayrıca blog yazısında açık yıkama sorununa da değinerek, "Sorunun özü, 'açık kaynak' gibi terimlerin, gerçek şeffaflık ve işbirliğinden çok pazarlamayla ilgilenen büyük şirketlerin gündemlerine uyacak şekilde esnetilmesi ve yeniden tanımlanmasıdır." diyor. Bu bakış açısı, bu yanıltıcı iddiaları elemek için sağlam bir değerlendirme çerçevesine olan ihtiyacı güçlendiriyor.
Son tartışmalarda tanıtılan Model Açıklık Çerçevesi, şeffaflığa Açık Bilimle uyumlu bir yaklaşım sunarak bu içgörülerden bazılarını tamamlıyor. Açık Kaynaklı Yapay Zeka Tanımı (OSAID) sağlam bir temel sağlarken, alandaki birçok kişi (araştırmacılar da dahil) bunun özellikle veri şeffaflığı söz konusu olduğunda yeterli olmayabileceğine inanıyor. Karşılaştırma yapmak gerekirse, Model Açıklık Çerçevesi daha katı bir ölçüt belirliyor ve yalnızca kodun açıklığını değil aynı zamanda Açık Bilim değerleriyle uyumlu veri kümelerinin, metodolojilerin ve eğitim süreçlerinin kullanılabilirliğini de vurguluyor.
Gradient Açıklığıyla Genişleme
OSAID'e dayanarak, gradyan açıklığı kavramı değerlendirme sürecine nüans katar. Bir AI sisteminin her bileşenini (kaynak kodu, veri, modeller) ayrı ayrı değerlendirerek, gerçek şeffaflık ve açıklık seviyesini daha iyi anlayabiliriz.
Bahsi geçen bu makale araştırmadan elde edilen temel öngörüleri sunmaktadır:
Lisanslama Düzenlemelerinin Zorlukları: Geleneksel Açık Kaynak lisansları, yapay zekanın karmaşık, çok yönlü doğası için değil, yazılım için tasarlanmıştır. Makale, yapay zekanın ortaya koyduğu benzersiz zorlukları ele almak için yeni lisanslama stratejilerine ihtiyaç duyulduğunu savunmaktadır. Bu lisanslar, yalnızca kaynak kodunun değil, aynı zamanda verilerin, modellerin ve parametrelerin de Açık Kaynak ilkeleri kapsamında ele alınmasını sağlamalıdır. Lisanslamaya yönelik bu bütünsel yaklaşım, yapay zeka çağında açık kaynak hareketinin bütünlüğünü korumak için hayati öneme sahiptir.
Etik Hususlar: Teknik açıklığın ötesinde, makale ayrıca AI geliştirme ve dağıtımında etik hususların önemini vurgulamaktadır. AI sistemlerinde adaleti, hesap verebilirliği ve şeffaflığı sağlamanın yalnızca teknik bir zorluk değil, aynı zamanda ahlaki bir zorunluluk olduğunu belirtmektedir. AI geliştirmenin etik boyutu, şeffaflık olmadan sorumluluk önemli zararlara yol açabileceğinden, açıklık hakkındaki her tartışmaya entegre edilmelidir.
Pratik Bir Yaklaşım: Araştırmacılar, bileşik bir lisans altında bile kategorik güvenilirliği oluşturmanın birkaç makul yolunu ana hatlarıyla belirtiyorlar. Açık Kaynaklı AI Tanımını (OSAID) bu daha derin içgörülerle entegre ederek, AI sistemlerini değerlendirmek için daha sağlam bir çerçeve oluşturabiliriz. Bu yaklaşım, AI modellerinin daha ayrıntılı ve kapsamlı bir şekilde değerlendirilmesine olanak tanır ve hem teknik hem de etik açıklık standartlarını karşıladıklarından emin olur.
Yapay zeka açıklığındaki daha ayrıntılı zorluklardan biri LLM sürümleme sorunudur. Sürüm güncellemelerinin genellikle iyi belgelendiği ve şeffaf olduğu geleneksel yazılım paketlerinin aksine, LLM'ler opak güncellemeler geçirebilir ve kullanıcıları neyin değiştiği konusunda karanlıkta bırakabilir. Bu şeffaflık eksikliği, neyin değiştirildiğini bilmeden bir işletim sistemi güncellemesi yüklemeye benzer - ancak LLM'ler söz konusu olduğunda, risklerin daha da yüksek olduğu söylenebilir.
İşletim Sistemi Karşılaştırması: Bilgisayarınıza bir işletim sistemi kurduğunuzu ve düzenli olarak güncellemeler aldığınızı düşünün. Normalde, neyin düzeltildiğini, iyileştirildiğini veya eklendiğini ayrıntılı olarak açıklayan bir değişiklik günlüğü görmeyi beklersiniz. Bu şeffaflık, kullanıcıların sistemlerinin durumunu anlamaları için çok önemlidir. Şimdi, böyle bir şeffaflık olmadan sürekli olarak güncellenen bir LLM düşünün. Kullanıcılar, bu değişiklikleri açıkça anlamadan, ince veya önemli şekillerde değişen bir modelle çalışırken bulabilirler. Bu şeffaflık eksikliği, model beklenmedik şekillerde davranabileceğinden, bozulmuş performanstan etik endişelere kadar uzanan sorunlara yol açabilir. Karşılaştırma, güncellemeleri konusunda şeffaf olmayan AI modellerinin kullanımıyla ilişkili riskleri vurgulayarak, net ve erişilebilir sürüm bilgilerine olan ihtiyacı vurgular.
Opak Güncellemelerin Riskleri: Şeffaflık olmadan, kullanıcılar kullandıkları AI sistemlerine tam olarak güvenemezler. Neyin değiştiğini bilmeden bir işletim sistemi güncellemesi yüklemeyeceğiniz gibi, opak güncellemeler geçiren bir LLM'ye güvenmek de risklidir. Bu, AI'nın gerçek hayatları etkileyen karar alma süreçlerinde kullanıldığı yüksek riskli ortamlarda özellikle endişe vericidir. Bir LLM güncellemesi yeni önyargılar getirirse veya önemli işlevleri kaldırırsa, sonuçlar ciddi olabilir. Şeffaflık eksikliği yalnızca kullanıcı güvenini baltalamakla kalmaz, aynı zamanda önemli etik ve operasyonel riskler de doğurur.
Bu zorlukların üstesinden gelmeye yardımcı olmak için, Açık Kaynaklı Yapay Zeka Tanımı'nın (OSIAID) güçlü yönlerini son araştırmalardan elde edilen daha derin içgörülerle birleştiren kapsamlı bir değerlendirme çerçevesi sunuyoruz. Bu çerçeve, yapay zeka sistemlerinin açıklığını değerlendirmek için daha sağlam bir yöntem sağlamayı amaçlamaktadır.
OSIAID Bir Temel Olarak: Açık Kaynaklı AI Tanımı, açık kaynaklı bir AI sistemini neyin oluşturduğunu anlamak için sağlam bir temel sağlar. Şeffaflık, erişilebilirlik ve etik kullanım için net kriterler ortaya koyar ve AI modellerinin asgari bir açıklık standardını karşılamasını sağlar. Geliştiriciler ve kullanıcılar, OSIAID'ye bağlı kalarak bir AI modelinin temel açıklık ve şeffaflık standartlarını karşıladığından emin olabilirler.
Gradient Açıklık ile Genişleme: OSIAID'e dayanarak, gradyan açıklık kavramı değerlendirme sürecine nüans katar. Bir AI sisteminin her bileşenini (kaynak kodu, veri, modeller) ayrı ayrı değerlendirerek, gerçek şeffaflık ve açıklık seviyesini daha iyi anlayabiliriz. Bunlar, kendi kuruluşunuzun risk iştahı ve çerçevesinin göstergeleri olabilir veya kuruluşlar arasında standartlaştırılabilir. Bu yaklaşım, AI modellerinin daha ayrıntılı ve doğru bir şekilde değerlendirilmesine, açıklığın güçlü olduğu ve iyileştirilmesi gereken alanların belirlenmesine olanak tanır.
Etik ve Yasal Sonuçları Ele Alma: Çerçeve ayrıca etik ve yasal hususları da içerir ve AI sistemlerinin yalnızca teknik olarak açık olmasını değil, aynı zamanda daha geniş toplumsal değerler ve yasal gerekliliklerle uyumlu olmasını sağlar. Bu hususları entegre ederek, çerçeve açıklığın yalnızca teknik şeffaflıkla ilgili olmadığını, aynı zamanda AI gelişiminde önemli olan etik ve yasal standartları karşılamakla ilgili olduğunu garanti eder.
Julia Ferraioli'nin açık tanımlara ve Açık Kaynak ilkelerine bağlılığa olan ihtiyacı vurgulaması bu yaklaşımla örtüşüyor. "Açık Kaynak topluluğu değerlerine sıkı sıkıya bağlı kalmalı, herhangi bir sapmanın eleştirel inceleme ve şeffaflık talebiyle karşılanmasını sağlamalıdır." diye yazıyor. Bu uygulamalar bu ihtiyacı karşılamak için tasarlanmıştır ve AI sistemlerini değerlendirmek için sağlam ve kapsamlı bir çerçeve sunar.
Yapay zeka düzenlemesinin manzarası gelişmeye devam ederken, düzenleyici gelişmelerden haberdar olmak ve bunlara dahil olmak hayati önem taşımaktadır. AB Yapay Zeka Yasası ve benzer çerçeveler, yapay zekanın açıklığı ve şeffaflığının geleceğini şekillendirmede önemli bir rol oynayacaktır. Bu tartışmaları anlayarak ve bunlara katılarak, düzenleyici çerçevelerin yapay zekada şeffaflığı ve hesap verebilirliği etkili bir şekilde teşvik etmesini sağlayabilirsiniz.
Yapay zeka dünyası karmaşık, dağınık ve Açık Kaynak hareketinin başlangıçta ele almak üzere tasarlanmadığı zorluklarla dolu. Ancak bu, şeffaflık, iş birliği ve açıklık ideallerinden vazgeçmemiz gerektiği anlamına gelmiyor. Bunun yerine, uyum sağlamamız, gelişmemiz ve Açık Kaynak Yapay Zeka'nın hala tanıma uyması için gerekli dört özgürlüğü temsil ettiğinden emin olmamız gerekiyor.
Bu yeni dünyada yolumuzu bulurken, Açık Kaynak topluluğu, düzenleyici kurumlar ve AI geliştiricileri arasındaki iş birliği çok önemli olacak. Açık yıkama zorluklarını ele alarak, lisanslama yaklaşımımızı yeniden düşünerek ve sağlam düzenleyici çerçeveleri benimseyerek, yalnızca yenilikçi değil aynı zamanda etik ve hesap verebilir bir AI ekosistemi inşa edebiliriz.
Yapay zeka burada kalmaya geldi ve daha büyük iyiliğe hizmet ettiğinden emin olmak bize kalmış. Sonuç olarak, sizi bu önemli çalışmanın araştırmacılarından doğrudan gelen şu önemli düşünceyle baş başa bırakacağım:
"Belki de kamu tarafından finanse edilen araştırmacıların açık yıkamaya karşı öncülük etmesi bir tesadüf değildir: Şirket çıkarlarına bağlı olmadan ve yapay zekayı abartmak için teşvikler olmadan, bir adım geri çekilip büyük teknoloji şirketlerinin ne yaptığını ortaya koyabilir ve onları sorumlu tutmak için yapıcı yollar geliştirebiliriz." Dr. Liesenfeld.
Bu araştırma ekibi, özellikle AI belgelerinde "yeterince ayrıntılı bir özetin" pratikte neleri gerektireceğine odaklanarak AB AI Yasası ile ilgili çeşitli girişimlerde aktif olarak yer almaktadır. Bu çalışma Mozilla Vakfı ve Open Future Vakfı ile iş birliği içinde yürütülmektedir. Ekip ayrıca teknoloji değerlendirmesi üzerine akademik çalışmalarını sürdürüyor ve bu yılın ilerleyen zamanlarında açıklık değerlendirmesi için kamu kaynağı olarak hizmet verecek ve bu araçları daha geniş halk için daha erişilebilir hale getirecek yeni bir web sitesi yayınlamayı planlıyor. Bu girişim, şirketleri AI'da şeffaflık konusunda sorumlu tutmak için daha net standartlar ve çerçeveler sağlamayı amaçlıyor.
Açık Kaynaklı Yapay Zeka Tanımı (OSAID) hala kamu incelemesine ve geri bildirime açıktır. Açık Kaynaklı Yapay Zeka'nın geleceğini şekillendirmeye katılmak isterseniz, mevcut taslak hakkında yorumlarınızı buradan gönderebilirsiniz. Tanımın son hali, 2024'te gerçekleşecek olan All Things Open (ATO) konferansında duyurulacaktır. Topluluk, açık yapay zeka geliştirme için bu kritik çerçeveyi geliştirmeye devam ederken daha fazla güncelleme için bizi izlemeye devam edin.
Günün sonunda, bu LLM'leri kullanarak hesaplanmış bir risk alacaksanız, o riski ölçmeniz gerekir. Umarım bu size bunu yapmanın birkaç yolunu verir ve yukarıda sunulan çözümlere ilişkin herhangi bir niceliksel ölçüm veya iyileştirmeniz varsa veya genel olarak bu konuda burada ele alamadığım herhangi bir sorunuz varsa bana ulaşmanızı kesinlikle istiyorum.