paint-brush
Bu LLM Gerçekten "Açık Kaynak" mı? AI Yönetiminde Açık Yıkama hakkında konuşmamız gerekiyorile@salkimmich
970 okumalar
970 okumalar

Bu LLM Gerçekten "Açık Kaynak" mı? AI Yönetiminde Açık Yıkama hakkında konuşmamız gerekiyor

ile Sal Kimmich13m2024/09/08
Read on Terminal Reader

Çok uzun; Okumak

Hızla gelişen Yapay Zeka (AI) dünyasında, açık kaynaklı ve tescilli yazılım arasındaki ayrım giderek daha belirsiz hale geliyor. Bu artan karmaşıklık, şeffaflık, etik ve AI'daki "açıklığın" gerçek anlamı hakkında önemli soruları gündeme getiriyor. Daha bilinçli kararlar almanıza yardımcı olmak için Açık Kaynak AI Tanımını (OSAID) daha derin analitik içgörülerle bütünleştiren kapsamlı bir değerlendirme çerçevesi sunacağız.
featured image - Bu LLM Gerçekten "Açık Kaynak" mı? AI Yönetiminde Açık Yıkama hakkında konuşmamız gerekiyor
Sal Kimmich HackerNoon profile picture
0-item

Belirli özelliklere ağırlık atayarak değerlendirme gradyanı oluşturarak nicel açıklık yargılarının nasıl eyleme dönüştürülebilir metriklere dönüştürülebileceğini gösteren şekil.

Ne Öğreneceksiniz

Bu blogda, Yapay Zeka açıklığının karmaşıklıklarına derinlemesine dalıyoruz ve Açık Kaynak ilkelerinin BloomZ ve Llama 2 gibi Büyük Dil Modellerine (LLM) nasıl uygulandığına veya uygulanamadığına odaklanıyoruz. Bu makalenin sonunda, Açık Kaynak lisanslamanın tarihsel bağlamını, Yapay Zeka'da "açıklık" tanımlamadaki mevcut zorlukları ve tüketicileri ve geliştiricileri aynı şekilde yanıltan "açık yıkama" olgusunu anlayacaksınız. Ayrıca, Yapay Zeka modelleri hakkında daha bilinçli kararlar almanıza yardımcı olmak için Açık Kaynak Yapay Zeka Tanımını (OSAID) diğer çerçevelerden gelen tamamlayıcı içgörülerle bütünleştiren kapsamlı bir değerlendirme çerçevesi sunuyoruz. Son olarak, herhangi bir "Açık Kaynak" büyük dil modeli için şeffaflığı nicel olarak ölçmek üzere bileşik yargıyı geliştirmek için eyleme geçirilebilir en iyi uygulamalarla bitireceğiz.


Yaygın olarak kabul görmüş tanımları tamamlayan alternatifleri keşfetmek de faydalıdır. Tartışacağımız gibi, bazı bakış açıları (son analizler dahil) Açık Kaynaklı AI Tanımı (OSAID) gibi çerçevelerin özellikle veri şeffaflığı gibi konuları nasıl ele aldıkları konusunda ek boyutlardan faydalandığını öne sürüyor. Model Açıklık Çerçevesi ve Açık Bilim ilkelerindeki kökleri, AI açıklığını değerlendirmek için ek bir kılavuz görevi görebilecek tamamlayıcı bir bakış açısı sunuyor. Bu alanda hala düzenleyici uyumluluğun en erken günlerindeyiz.


Bunun Önemi

Yapay zeka dünyası karmaşıktır ve hızla gelişmektedir, sıklıkla açık kaynak ilkelerini sınırlarına kadar zorlar. Bu nüansları anlamak, yapay zeka sistemlerinin yalnızca yenilikçi değil aynı zamanda şeffaf, etik ve hesap verebilir olmasını sağlamak isteyen geliştiriciler, araştırmacılar ve tüketiciler için hayati önem taşır. Yapay zeka modellerinin yanlış bir şekilde açık kaynak olarak pazarlandığı "açık yıkama"nın yükselişiyle birlikte, bu iddiaları değerlendirmek için sağlam bir çerçeveye sahip olmak her zamankinden daha önemlidir. Bu bilgiyle donatılarak, yapay zeka geliştirmede açıklık ve şeffaflığın gerçek değerleriyle uyumlu bilinçli kararlar alabilirsiniz.

Açık Kaynak Lisanslamanın Tarihsel Bağlamı

Nereye gittiğimizi anlamak için, nereden geldiğimizi bilmek önemlidir. Açık Kaynak hareketi, 1980'lerde Özgür Yazılım Vakfı'nın (FSF) GNU Genel Kamu Lisansı'nı (GPL) tanıtmasıyla, tescilli yazılımların artan hakimiyetine karşı bir isyandan doğmuştur. Bu lisans, kullanıcılara yazılımı kullanma, değiştirme ve paylaşma özgürlüğünü garanti ederek oyunun kurallarını değiştirmiştir; esasen gücü geliştiricilerin ve kullanıcıların ellerine geri vermiştir.


1990'ların sonuna doğru hızlıca ilerleyelim ve Açık Kaynak Tanımı'na (OSD) uyan lisansları onaylayarak Açık Kaynak yazılımlarını tanıtmak ve korumak için Açık Kaynak Girişimi (OSI) kuruldu. OSD, "açık kaynak" olarak adlandırılabilecek ve adlandırılamayacak olan şeyler için yasayı koydu ve terimin sulandırılmamasını veya kötüye kullanılmamasını sağladı.

Büyük Dil Modelleri (LLM) Örneği ve "Açıklığın" Sınırları

Yapay zeka dünyasına girin, burada açık ve kapalı sistemler arasındaki çizgiler daha da bulanıklaşıyor. GPT-3 veya halefleri gibi Büyük Dil Modelleri (LLM'ler), "açık kaynak"ın yapay zeka manzarasında nasıl yanıltıcı bir terim olabileceğinin başlıca örnekleri olarak hizmet ediyor. LLM'ler, insan benzeri metinler üretmek için devasa veri kümeleri üzerinde eğitilen karmaşık yapay zeka sistemleridir. Bu modeller, çeviriden yaratıcı yazıma kadar çok çeşitli görevleri yerine getirme yetenekleri nedeniyle önemli ilgi ve yatırım uyandırdı. Ancak, bu modellerin etkileyici yeteneklerine rağmen, "açıklık" kavramı yakından incelendiğinde genellikle yetersiz kalıyor.


"Açık Kaynaklı Üretken Yapay Zekayı Yeniden Düşünmek: Açık Yıkama ve AB Yapay Zeka Yasası" adlı araştırma makalesinde, araştırmacılar Dr. Liesenfeld ve ekibi analizlerinde, yapay zekada farklı derecelerde açıklığın örnekleri olarak BloomZ ve Llama 2'yi, iki önemli LLM'yi karşılaştırıyor. Bu karşılaştırma, üretken yapay zeka modellerine bir açıklık matrisinin nasıl uygulanacağına dair pratik bir gösterim sunuyor:


BloomZ ve Llama 2'nin 14 açıklık boyutu açısından karşılaştırılması, çerçevenin gösterilmesi.


BloomZ: Gerçek Açıklığın Bir Vaka Çalışması

BloomZ, yapay zekada şeffaflık ve erişilebilirlik konusunda yüksek standartlar belirleyen, açık kaynak ilkelerini gerçek anlamda benimseyen bir modeli temsil ediyor.


  • Kullanılabilirlik : BloomZ, modeli eğitmek, ince ayarlamak ve çalıştırmak için kaynak kodunu kullanılabilir hale getirir ve bu da yüksek derecede açıklığı temsil eder. BloomZ'yi eğitmek için kullanılan LLM verileri kapsamlı bir şekilde belgelenmiştir ve bu da onu veri kaynakları ve süreçleri hakkında şeffaf hale getirir. Hem temel model ağırlıkları hem de talimat ayarlı sürüm açık bir şekilde kullanılabilir ve bu da daha geniş topluluk tarafından çoğaltılmaya ve incelenmeye olanak tanır.
  • Belgeleme : BloomZ projesi, birden fazla bilimsel makalede ve etkin bir GitHub deposunda bulunan ayrıntılı açıklamalarla iyi belgelenmiştir. Veri düzenleme ve ince ayar süreçleri kapsamlı bir şekilde ele alınmış olup, modelin mimarisi, eğitim verileri ve sorumlu kullanım hakkında içgörüler sağlar. Akran denetimli makaleler, AI projelerinde nadiren belgelenen karbon ayak izinin tahmini de dahil olmak üzere şeffaflığını daha da desteklemektedir.
  • Erişim ve Lisanslama : BloomZ, Petals API aracılığıyla dağıtılır ve kaynak kodu, OSI onaylı bir lisans olan Apache 2.0 lisansı altında yayınlanır. Model ağırlıkları, zararlı kullanımı önlemek için kısıtlamalar getiren ve bir etik sorumluluk katmanı ekleyen Sorumlu Yapay Zeka Lisansı (RAIL) kapsamındadır.

Llama 2 : Açık Yıkamanın Tuzakları

Buna karşın Llama 2, açıklık ilkelerine tam anlamıyla uyulmadan açık kaynak etiketinin uygulandığı "açık yıkama" kavramına örnek teşkil ediyor.


  • Kullanılabilirlik : Tam tersine, Llama 2 kaynak kodunu kullanıma sunmaz. Yalnızca modeli çalıştırma komut dosyaları paylaşılır ve LLM verileri belirsiz bir şekilde açıklanır, sınırlı ayrıntılar kurumsal bir ön baskıda sağlanır. Temel model ağırlıklarına erişim kısıtlanmıştır, bir onay formu gerektirir ve talimat ayarlaması için kullanılan veriler açıklanmadan kalır, bu da şeffaflığı daha da sınırlar.

  • Belgeleme : Llama 2 için belgeler asgari düzeydedir ve kaynak kodun kendisi açık değildir. Mimari daha az ayrıntılı olarak açıklanmış olup, kurumsal web sitelerine ve tek bir ön baskıya dağılmıştır. BloomZ'den farklı olarak, Llama eğitim veri kümelerinin, talimat ayarlamalarının ve ince ayar süreçlerinin kapsamlı belgelendirmesinden yoksundur.

  • Erişim ve Lisanslama : Llama 2, gizliliği hiçe sayan bir kayıt formunun arkasında mevcuttur ve lisanslaması Meta'nın kendi Topluluk Lisansı altında işlenir. Bu lisans, BloomZ'nin RAIL'inden daha az katıdır ve üretilen içeriğin nasıl temsil edileceğine dair daha düşük bir çıtaya sahiptir ve potansiyel olarak yanıltıcı uygulamalara yer bırakır.


BloomZ ve Llama 2 arasındaki karşılaştırma, açıklığa yaklaşımlarındaki belirgin farklılıkları vurgular. BloomZ, kodunda, verilerinde ve belgelerinde şeffaflıkla açık kaynak ilkelerini gerçekten benimseyen bir modelin başlıca örneğidir. Buna karşılık, Llama 2, modelin açık kaynak olarak etiketlendiği ancak gerçek açıklığın çoğu yönünde eksik kaldığı ve yalnızca model ağırlıklarının kısıtlayıcı koşullar altında erişilebilir olduğu "açık yıkama"yı örneklendirir. Bu karşılaştırma, yapay zekada açıklığın daha ayrıntılı bir şekilde anlaşılmasına duyulan ihtiyacı ve yüzeysel açıklık iddialarına güvenmek yerine modelleri kapsamlı bir kriter kümesine göre değerlendirmenin önemini vurgular.

Açık Yıkamanın Zorluğu

"Açık yıkama", gerçekten açık olmayan bir şeye açık kaynaklı etiketi yapıştırma uygulamasıdır. Yapay zeka dünyasında, şirketlerin en önemli bileşenleri kilit altında tutarken yapay zeka sistemlerinin parçalarını sunmasıyla açık yıkama yaygındır.

Araştırma makalesi, yapay zekada açık yıkama işleminin kirli ayrıntılarını ele alıyor ve bazı temel zorlukları vurguluyor:


Bileşik Açıklık: Yapay Zeka'daki açıklık tek bir kalıba uyan bir kavram değildir. Birçok parçası olan bir bulmacadır ve her parça sistemin genel şeffaflığına katkıda bulunur. Ancak, şirketler çoğu zaman yalnızca parçaların bir kısmını yayınlar ve bu da yanıltıcı bir açıklık hissine yol açar. Araştırma, yapay zekadaki açıklığın ikili bir durumdan ziyade bir spektrum olarak görülmesi gerektiğini vurgulayarak gradyan açıklığı kavramını ortaya koyar. Bir yapay zeka sisteminin farklı bileşenleri (kaynak kodu, veri, modeller) farklı derecelerde açık olabilir ve her bileşeni ayrı ayrı değerlendirmek çok önemlidir. Bu gradyanı anlayarak yapay zeka sistemlerinin gerçek açıklığını daha iyi değerlendirebilir ve kısmi şeffaflık tarafından yanlış yönlendirilmekten kaçınabiliriz.


Seçici Açıklık: Bazı AI modelleri, genellikle model ağırlıkları olmak üzere, idare edebilecek kadar açıklıkla yayınlanır ancak veri ve eğitim süreci gibi kritik bileşenler, tescilli kalır. Bu seçici açıklık, yarardan çok zarar veren, yarı pişmiş bir şeffaflık girişimidir. Şirketler, yalnızca kısmi erişim sağlayarak, anlamlı iş birliği ve anlayış için gereken tam şeffaflığı sağlamadan açıklık iddia edebilirler.


Düzenleyici Boşluklar: İyi niyetli bir düzenleyici çerçeve olan AB AI Yasası, açık lisanslar altında yayınlanan AI modellerinin ayrıntılı dokümantasyon gerekliliklerini atlatmasına izin vererek istemeden açık yıkamayı teşvik edebilir. Bu boşluk, yalnızca ismen "açık" olan ve gerçek şeffaflığı çok az veya hiç olmayan AI sistemlerinin seline yol açabilir. Bu tür düzenlemelerin ardındaki amaç açıklığı teşvik etmek olsa da, dikkatli bir uygulama ve denetim olmadan, içerik olmadan açıklık yanılsaması yaratmak için kullanılabilirler.


Julia Ferraioli ayrıca blog yazısında açık yıkama sorununa da değinerek, "Sorunun özü, 'açık kaynak' gibi terimlerin, gerçek şeffaflık ve işbirliğinden çok pazarlamayla ilgilenen büyük şirketlerin gündemlerine uyacak şekilde esnetilmesi ve yeniden tanımlanmasıdır." diyor. Bu bakış açısı, bu yanıltıcı iddiaları elemek için sağlam bir değerlendirme çerçevesine olan ihtiyacı güçlendiriyor.


Araştırma Görüşleri: Açık Kaynaklı Yapay Zekanın Gerçekleri


Son tartışmalarda tanıtılan Model Açıklık Çerçevesi, şeffaflığa Açık Bilimle uyumlu bir yaklaşım sunarak bu içgörülerden bazılarını tamamlıyor. Açık Kaynaklı Yapay Zeka Tanımı (OSAID) sağlam bir temel sağlarken, alandaki birçok kişi (araştırmacılar da dahil) bunun özellikle veri şeffaflığı söz konusu olduğunda yeterli olmayabileceğine inanıyor. Karşılaştırma yapmak gerekirse, Model Açıklık Çerçevesi daha katı bir ölçüt belirliyor ve yalnızca kodun açıklığını değil aynı zamanda Açık Bilim değerleriyle uyumlu veri kümelerinin, metodolojilerin ve eğitim süreçlerinin kullanılabilirliğini de vurguluyor.


Gradient Açıklığıyla Genişleme

OSAID'e dayanarak, gradyan açıklığı kavramı değerlendirme sürecine nüans katar. Bir AI sisteminin her bileşenini (kaynak kodu, veri, modeller) ayrı ayrı değerlendirerek, gerçek şeffaflık ve açıklık seviyesini daha iyi anlayabiliriz.



Bahsi geçen bu makale araştırmadan elde edilen temel öngörüleri sunmaktadır:


  • Lisanslama Düzenlemelerinin Zorlukları: Geleneksel Açık Kaynak lisansları, yapay zekanın karmaşık, çok yönlü doğası için değil, yazılım için tasarlanmıştır. Makale, yapay zekanın ortaya koyduğu benzersiz zorlukları ele almak için yeni lisanslama stratejilerine ihtiyaç duyulduğunu savunmaktadır. Bu lisanslar, yalnızca kaynak kodunun değil, aynı zamanda verilerin, modellerin ve parametrelerin de Açık Kaynak ilkeleri kapsamında ele alınmasını sağlamalıdır. Lisanslamaya yönelik bu bütünsel yaklaşım, yapay zeka çağında açık kaynak hareketinin bütünlüğünü korumak için hayati öneme sahiptir.


  • Etik Hususlar: Teknik açıklığın ötesinde, makale ayrıca AI geliştirme ve dağıtımında etik hususların önemini vurgulamaktadır. AI sistemlerinde adaleti, hesap verebilirliği ve şeffaflığı sağlamanın yalnızca teknik bir zorluk değil, aynı zamanda ahlaki bir zorunluluk olduğunu belirtmektedir. AI geliştirmenin etik boyutu, şeffaflık olmadan sorumluluk önemli zararlara yol açabileceğinden, açıklık hakkındaki her tartışmaya entegre edilmelidir.


  • Pratik Bir Yaklaşım: Araştırmacılar, bileşik bir lisans altında bile kategorik güvenilirliği oluşturmanın birkaç makul yolunu ana hatlarıyla belirtiyorlar. Açık Kaynaklı AI Tanımını (OSAID) bu daha derin içgörülerle entegre ederek, AI sistemlerini değerlendirmek için daha sağlam bir çerçeve oluşturabiliriz. Bu yaklaşım, AI modellerinin daha ayrıntılı ve kapsamlı bir şekilde değerlendirilmesine olanak tanır ve hem teknik hem de etik açıklık standartlarını karşıladıklarından emin olur.


LLM Sürümleme Sorunu: Açıklığın Gözden Kaçan Bir Yönü

Yapay zeka açıklığındaki daha ayrıntılı zorluklardan biri LLM sürümleme sorunudur. Sürüm güncellemelerinin genellikle iyi belgelendiği ve şeffaf olduğu geleneksel yazılım paketlerinin aksine, LLM'ler opak güncellemeler geçirebilir ve kullanıcıları neyin değiştiği konusunda karanlıkta bırakabilir. Bu şeffaflık eksikliği, neyin değiştirildiğini bilmeden bir işletim sistemi güncellemesi yüklemeye benzer - ancak LLM'ler söz konusu olduğunda, risklerin daha da yüksek olduğu söylenebilir.


İşletim Sistemi Karşılaştırması: Bilgisayarınıza bir işletim sistemi kurduğunuzu ve düzenli olarak güncellemeler aldığınızı düşünün. Normalde, neyin düzeltildiğini, iyileştirildiğini veya eklendiğini ayrıntılı olarak açıklayan bir değişiklik günlüğü görmeyi beklersiniz. Bu şeffaflık, kullanıcıların sistemlerinin durumunu anlamaları için çok önemlidir. Şimdi, böyle bir şeffaflık olmadan sürekli olarak güncellenen bir LLM düşünün. Kullanıcılar, bu değişiklikleri açıkça anlamadan, ince veya önemli şekillerde değişen bir modelle çalışırken bulabilirler. Bu şeffaflık eksikliği, model beklenmedik şekillerde davranabileceğinden, bozulmuş performanstan etik endişelere kadar uzanan sorunlara yol açabilir. Karşılaştırma, güncellemeleri konusunda şeffaf olmayan AI modellerinin kullanımıyla ilişkili riskleri vurgulayarak, net ve erişilebilir sürüm bilgilerine olan ihtiyacı vurgular.


Opak Güncellemelerin Riskleri: Şeffaflık olmadan, kullanıcılar kullandıkları AI sistemlerine tam olarak güvenemezler. Neyin değiştiğini bilmeden bir işletim sistemi güncellemesi yüklemeyeceğiniz gibi, opak güncellemeler geçiren bir LLM'ye güvenmek de risklidir. Bu, AI'nın gerçek hayatları etkileyen karar alma süreçlerinde kullanıldığı yüksek riskli ortamlarda özellikle endişe vericidir. Bir LLM güncellemesi yeni önyargılar getirirse veya önemli işlevleri kaldırırsa, sonuçlar ciddi olabilir. Şeffaflık eksikliği yalnızca kullanıcı güvenini baltalamakla kalmaz, aynı zamanda önemli etik ve operasyonel riskler de doğurur.

Kapsamlı bir Değerlendirme Çerçevesi Oluşturma: OSIAID'i Entegre Etme

Bu zorlukların üstesinden gelmeye yardımcı olmak için, Açık Kaynaklı Yapay Zeka Tanımı'nın (OSIAID) güçlü yönlerini son araştırmalardan elde edilen daha derin içgörülerle birleştiren kapsamlı bir değerlendirme çerçevesi sunuyoruz. Bu çerçeve, yapay zeka sistemlerinin açıklığını değerlendirmek için daha sağlam bir yöntem sağlamayı amaçlamaktadır.


OSIAID Bir Temel Olarak: Açık Kaynaklı AI Tanımı, açık kaynaklı bir AI sistemini neyin oluşturduğunu anlamak için sağlam bir temel sağlar. Şeffaflık, erişilebilirlik ve etik kullanım için net kriterler ortaya koyar ve AI modellerinin asgari bir açıklık standardını karşılamasını sağlar. Geliştiriciler ve kullanıcılar, OSIAID'ye bağlı kalarak bir AI modelinin temel açıklık ve şeffaflık standartlarını karşıladığından emin olabilirler.


Gradient Açıklık ile Genişleme: OSIAID'e dayanarak, gradyan açıklık kavramı değerlendirme sürecine nüans katar. Bir AI sisteminin her bileşenini (kaynak kodu, veri, modeller) ayrı ayrı değerlendirerek, gerçek şeffaflık ve açıklık seviyesini daha iyi anlayabiliriz. Bunlar, kendi kuruluşunuzun risk iştahı ve çerçevesinin göstergeleri olabilir veya kuruluşlar arasında standartlaştırılabilir. Bu yaklaşım, AI modellerinin daha ayrıntılı ve doğru bir şekilde değerlendirilmesine, açıklığın güçlü olduğu ve iyileştirilmesi gereken alanların belirlenmesine olanak tanır.


Etik ve Yasal Sonuçları Ele Alma: Çerçeve ayrıca etik ve yasal hususları da içerir ve AI sistemlerinin yalnızca teknik olarak açık olmasını değil, aynı zamanda daha geniş toplumsal değerler ve yasal gerekliliklerle uyumlu olmasını sağlar. Bu hususları entegre ederek, çerçeve açıklığın yalnızca teknik şeffaflıkla ilgili olmadığını, aynı zamanda AI gelişiminde önemli olan etik ve yasal standartları karşılamakla ilgili olduğunu garanti eder.


Julia Ferraioli'nin açık tanımlara ve Açık Kaynak ilkelerine bağlılığa olan ihtiyacı vurgulaması bu yaklaşımla örtüşüyor. "Açık Kaynak topluluğu değerlerine sıkı sıkıya bağlı kalmalı, herhangi bir sapmanın eleştirel inceleme ve şeffaflık talebiyle karşılanmasını sağlamalıdır." diye yazıyor. Bu uygulamalar bu ihtiyacı karşılamak için tasarlanmıştır ve AI sistemlerini değerlendirmek için sağlam ve kapsamlı bir çerçeve sunar.

Düzenleyici Ufku Aklınızda Bulundurun

Yapay zeka düzenlemesinin manzarası gelişmeye devam ederken, düzenleyici gelişmelerden haberdar olmak ve bunlara dahil olmak hayati önem taşımaktadır. AB Yapay Zeka Yasası ve benzer çerçeveler, yapay zekanın açıklığı ve şeffaflığının geleceğini şekillendirmede önemli bir rol oynayacaktır. Bu tartışmaları anlayarak ve bunlara katılarak, düzenleyici çerçevelerin yapay zekada şeffaflığı ve hesap verebilirliği etkili bir şekilde teşvik etmesini sağlayabilirsiniz.

  • Birden Fazla Boyutta Açıklığı Değerlendirin: Çerçeveyi, kaynak kodu, veri, model ağırlıkları ve dokümantasyon dahil olmak üzere çeşitli açıklık boyutlarında AI sistemlerini değerlendirmek için kullanın. Kapsamlı bir değerlendirme, yüzeysel açıklık iddialarıyla yanıltılmamanızı ve kullandığınız AI modelleri hakkında bilinçli kararlar verebilmenizi sağlar.
  • Açık Yıkamaya Dikkat: Açık kaynaklı olduğunu iddia eden ancak yalnızca kısmi şeffaflık sunan AI modellerine karşı dikkatli olun. Yalnızca belirli bileşenlerin kullanılabilir hale getirildiği seçici açıklık belirtileri arayın. Bu taktikleri anlamak, açık kaynaklı ilkelere gerçekten uymayan modeller tarafından aldatılmaktan kaçınmanıza yardımcı olabilir.
  • Kapsamlı Dokümantasyon Talep Edin: Eğitim verileri, ince ayar süreçleri ve etik hususlar hakkındaki bilgiler de dahil olmak üzere AI sistemleri için ayrıntılı dokümantasyonda ısrar edin. Bu şeffaflık, modelin yeteneklerini ve sınırlamalarını anlamak için çok önemlidir. Kapsamlı dokümantasyon, AI modellerinin daha iyi değerlendirilmesini ve kullanılmasını sağlayarak kullandığınız araçlar hakkında tam olarak bilgi sahibi olmanızı sağlar.
  • AI'ya Özgü Lisanslamayı Destekleyin: Sadece kodu değil, aynı zamanda verileri, modelleri ve parametreleri de kapsayan AI'ya özgü lisansların geliştirilmesi ve benimsenmesi için savunuculuk yapın. Bu, şirketlerin kısmi açıklığın arkasına saklanmasını önlemeye yardımcı olacaktır. AI'ya özgü lisanslar, AI geliştirmenin benzersiz zorluklarını ele alabilir ve modelin tüm yönlerinin açık ve şeffaf olmasını sağlayabilir.
  • Düzenleyici Çerçevelerle Etkileşim Kurun: AB AI Yasası gibi düzenleyici gelişmeler hakkında bilgi sahibi olun ve bu çerçevelerin AI'da şeffaflığı ve hesap verebilirliği etkili bir şekilde teşvik etmesini sağlamak için tartışmalara aktif olarak katılın. Düzenleyici çerçevelerle etkileşim kurmak, AI'nın geleceğini şekillendirecek politikaların geliştirilmesinde sesinizin duyulmasını sağlar.

Sonuç: Karmaşık Bir Dünyada Yapay Zeka Açıklığının Sağlanması

Yapay zeka dünyası karmaşık, dağınık ve Açık Kaynak hareketinin başlangıçta ele almak üzere tasarlanmadığı zorluklarla dolu. Ancak bu, şeffaflık, iş birliği ve açıklık ideallerinden vazgeçmemiz gerektiği anlamına gelmiyor. Bunun yerine, uyum sağlamamız, gelişmemiz ve Açık Kaynak Yapay Zeka'nın hala tanıma uyması için gerekli dört özgürlüğü temsil ettiğinden emin olmamız gerekiyor.


Bu yeni dünyada yolumuzu bulurken, Açık Kaynak topluluğu, düzenleyici kurumlar ve AI geliştiricileri arasındaki iş birliği çok önemli olacak. Açık yıkama zorluklarını ele alarak, lisanslama yaklaşımımızı yeniden düşünerek ve sağlam düzenleyici çerçeveleri benimseyerek, yalnızca yenilikçi değil aynı zamanda etik ve hesap verebilir bir AI ekosistemi inşa edebiliriz.


Yapay zeka burada kalmaya geldi ve daha büyük iyiliğe hizmet ettiğinden emin olmak bize kalmış. Sonuç olarak, sizi bu önemli çalışmanın araştırmacılarından doğrudan gelen şu önemli düşünceyle baş başa bırakacağım:


"Belki de kamu tarafından finanse edilen araştırmacıların açık yıkamaya karşı öncülük etmesi bir tesadüf değildir: Şirket çıkarlarına bağlı olmadan ve yapay zekayı abartmak için teşvikler olmadan, bir adım geri çekilip büyük teknoloji şirketlerinin ne yaptığını ortaya koyabilir ve onları sorumlu tutmak için yapıcı yollar geliştirebiliriz." Dr. Liesenfeld.


Bu araştırma ekibi, özellikle AI belgelerinde "yeterince ayrıntılı bir özetin" pratikte neleri gerektireceğine odaklanarak AB AI Yasası ile ilgili çeşitli girişimlerde aktif olarak yer almaktadır. Bu çalışma Mozilla Vakfı ve Open Future Vakfı ile iş birliği içinde yürütülmektedir. Ekip ayrıca teknoloji değerlendirmesi üzerine akademik çalışmalarını sürdürüyor ve bu yılın ilerleyen zamanlarında açıklık değerlendirmesi için kamu kaynağı olarak hizmet verecek ve bu araçları daha geniş halk için daha erişilebilir hale getirecek yeni bir web sitesi yayınlamayı planlıyor. Bu girişim, şirketleri AI'da şeffaflık konusunda sorumlu tutmak için daha net standartlar ve çerçeveler sağlamayı amaçlıyor.


Açık Kaynaklı Yapay Zeka Tanımı (OSAID) hala kamu incelemesine ve geri bildirime açıktır. Açık Kaynaklı Yapay Zeka'nın geleceğini şekillendirmeye katılmak isterseniz, mevcut taslak hakkında yorumlarınızı buradan gönderebilirsiniz. Tanımın son hali, 2024'te gerçekleşecek olan All Things Open (ATO) konferansında duyurulacaktır. Topluluk, açık yapay zeka geliştirme için bu kritik çerçeveyi geliştirmeye devam ederken daha fazla güncelleme için bizi izlemeye devam edin.


Günün sonunda, bu LLM'leri kullanarak hesaplanmış bir risk alacaksanız, o riski ölçmeniz gerekir. Umarım bu size bunu yapmanın birkaç yolunu verir ve yukarıda sunulan çözümlere ilişkin herhangi bir niceliksel ölçüm veya iyileştirmeniz varsa veya genel olarak bu konuda burada ele alamadığım herhangi bir sorunuz varsa bana ulaşmanızı kesinlikle istiyorum.