Yaqinda Lex Fridman Antropik AIdan Dario Amodei, Amanda Askell va Kris Olah bilan besh soatlik podkastni chiqardi.
"Sevgi inoyati mashinalari" AIni rivojlantirish bo'yicha o'zining juda uzun maqolasini nashr etgandan so'ng, Dario bu mavzuni kengaytirdi, chunki xuddi shu tarzda Lex bilan suhbatning boshqa antropik a'zolari bilan ushbu mavzular bo'yicha kengaygan suhbatining asosiy maqsadi edi.
Mendan kamroq aql bovar qilmaydiganlar uchun ushbu etakchi AI jamoasi baham ko'rishi kerak bo'lgan asosiy g'oyalarni umumlashtirishni yaxshi deb o'yladim. Klod 3.5 Sonnet (Yangi) shu kuzda chiqarilganidan beri Anthropic kompaniyasining LLMdagi yutuqlari openAI o1 ko'rish modeli bilan erishgan yutuqlari bilan teng ekanligi aniq. Ular ushbu AI poygasida etakchilar qatorida, bu ularga mavzu bo'yicha yaxshi vakolat beradi.
Antropik jamoa tomonidan aytilganlarni takrorlashdan tashqari, men har bir nuqta amaliy AI qo'llanilishining kelajagi uchun 1 yildan keyin va 5 yildan keyin ikkita muhim vaqt jadvali sifatida nimani anglatishini ham tasavvur qilmoqchiman. Men bashoratlarimda noto'g'ri bo'lishni kutyapman (o'yinda juda ko'p omillar), lekin menimcha, aqliy gimnastikani bajarish va biz o'sha "haqiqiy kelajakda" vaqt bo'yicha paydo bo'lganimizda ushbu matnga qarash juda qiziqarli.
O'lchov effekti qachon paydo bo'lishini bilmaymiz, lekin HAZIR EMAS
Men uchun asosiy fikrlardan biri uning gipoteza yo'lini pasaytirishning kelajakdagi ta'siriga bo'lgan nuqtai nazari bo'ldi (ko'proq qobiliyatli hisoblash bilan ko'proq va yaxshiroq ma'lumotlarni tashlash, shunga mos ravishda modellarni aqlli qiladi). Dario, oddiygina barcha eski texnikalardan foydalanish va qo'shimcha ma'lumotlarni qo'shish AIni sezilarli darajada oshirishda unchalik samarali bo'lmasligiga ishora qilganga o'xshaydi. Hozirgi vaqtda AI laboratoriyalarining asosiy yo'nalishi qaysi qismni o'lchash kerakligini tushunishdir.
Uning fikricha, ba'zi istiqbolli yo'llar sintetik ma'lumotlarni ishlab chiqarish (murakkab vazifalar uchun sinov va xato o'rgatishda AlphaGo yondashuvini qo'llash) yoki qo'shimcha ma'lumotlarni qo'shish, ya'ni. modellarga aniq domenlar uchun yaxshi javoblar va yomon javoblar misollarini berib, u umumiy qoidalarni tushunadi va ularni biroz yaxshiroq qo'llaydi.
2025 yil - AlphaGo AI o'z-o'zini o'rgatish yondashuvi keng tarqalgan bo'lib qoladi va modellar zudlik bilan teskari aloqa zanjiriga ega bo'lgan qo'shimcha murakkab mashqlarda inson qobiliyatidan oshib ketadi (ehtimol savdo)
2030 yil - AlphaGo o'z-o'zini o'rgatish yondashuvi modellarda umumlashtirilishi mumkin, shunda ular topshiriqni bajarish uchun etarli vaqt berilsa, qiyin amaliy vazifalarni o'z-o'zidan yaxshilaydi.
2. AI xavfsizligiga yondashuv modelni ishlab chiqish bilan birga rivojlanadi
Avtonomiya va noto'g'ri foydalanish eng katta xavf tug'diradi.
Darioning ta'kidlashicha, uning jamoasi har safar yangi modelni o'rgatganda ikkala xavfni ham sinab ko'rishadi, shunda ular uni chiqarishdan oldin oldini olishlari mumkin.
ASL-1 (shaxmat boti kabi) - xavf tug'dirmaydi
ASL-2 (hozirgi AI modellari) - shunchaki Google orqali qidirish mumkin bo'lgan ma'lumotlardan tashqari unchalik xavfli ma'lumotlarni taqdim etmaydi.
ASL-3 (noqonuniylarning imkoniyatlarini oshirishi mumkin) - modellar chiqarilishidan oldin ushbu tizimlar orqali kiber, yadroviy, biologik qurollarni faollashtirish jiddiy ravishda o'chirilishi kerak.
ASL-4+ (ASL-3 + avtonom dan aqlliroq) - ular qanday boshqarilishi hozircha noma'lum, ular faqat treningdan so'ng bunday model belgilari paydo bo'lganda xavfdan chiqariladi.
2025 yil - Dario kelgusi yilda ASL-3 ni kutmoqda. Ishonchim komilki, odamlar tomonidan ushbu tizimlardan noto'g'ri foydalanish to'siqlarga qaramay sodir bo'ladi, chunki chiqarilgunga qadar barcha xatolarni (yangi firibgarliklar yoki dasturiy viruslar) qo'lga kiritish mumkin bo'lmaydi.
2030 yil - sun'iy intellektning bir nechta va qobiliyatli robot ilovalari, masalan, Tesla Optimus robotlari , sun'iy intellekt ma'lum sohalarda o'rtacha odamga qaraganda bir vaqtning o'zida mujassamlangan va ancha aqlli bo'ladi. Bunday murakkab tizimlardan noto'g'ri foydalanishning to'liq oldini olish qiyin bo'lishi mumkin, ayniqsa ular jinoyatchilar uchun oddiy vazifalarni bajaradigan hollarda.
3. AGI (yoki Dario soʻzlari bilan aytganda “ kuchli AI ”) 2027- yilgacha yetib kelishi mumkin.
U bir necha marta AI qanchalik aqlli bo'lishi domenga bog'liq bo'lishini va sun'iy intellektni rivojlantirishga to'sqinlik qiluvchilar doimiy ravishda to'xtab qolganga o'xshaydi. Mantiqan, inson tomonidan yaratilgan tarkibdan to'g'ri foydalanish orqali, odamlarning fikrlash qobiliyati oxir-oqibat AI tomonidan takrorlanishi kerak. Shaxmat o‘ynaydigan kompyuterlar va AlphaGo o‘xshashligidan ma’lum bo‘ladiki, aniq vazifalarni bajarishda AI inson qobiliyatlaridan oshib ketishi mumkin va bu domen qanchalik yaxshi hujjatlashtirilgan va qattiq bo‘lsa, unumdorlik ham shunchalik yuqori bo‘lishi kerak. Shunday qilib, yakuniy AGI ning eng yomon stsenariysi bu inson darajasidagi aqliy AI bo'lib, u muayyan sohalarda ajoyib imkoniyatlarga ega bo'lib, biz uni eng yuqori darajada rivojlantirishga muvaffaq bo'ldik.
Xuddi shunday, sun'iy intellektning haqiqiy qo'llanilishi ma'lum bir soha AI ishlab chiquvchilardan qanchalik uzoqda ekanligiga bog'liq bo'ladi. Shubhasiz, qishloq xo'jaligi sharoitida ushbu modellardan unumli foydalanishdan ko'ra, kod yozishga yordam beradigan yangi modellarni sinab ko'rish va moslashtirish ularga osonroqdir. Shu mantiqqa ko'ra, IT/kodlash, fan, yirik shahar biznesi va shundan keyingina iqtisodiyotning boshqa qismlari AI ta'sirini shu tartibda his qilishi kerak.
2025 yil - Biz sun'iy intellektning yanada ta'sirchan/avtonom ilovalarini ko'rishni boshlaymiz, ayniqsa kodlashda, bu erda texnik bo'lmagan mahsulot menejerlari koderdan yordam so'ramasdan kodga asoslangan loyihalarni amalga oshirishlari mumkin.
2030 yil - Har bir biznes sun'iy intellektni o'z ish oqimiga u yoki bu tarzda integratsiya qiladi, chegara modellari biologiya, fizika va matematika kabi sohalarda ko'plab ilmiy kashfiyotlarga yordam bergan bo'lar edi.
Modellar juda tez rivojlanmoqda, ammo ular qora quti bo'lib qolmoqda, nima uchun ular yaxshi ishlaydi va nima uchun yomon ishlaydi, noma'lum.
Ko'pincha bu shuni anglatadiki, bunday modellarni o'zgartirish / masshtablash gallyutsinatsiyalarga, oldindan aytib bo'lmaydigan harakatlarga yoki favqulodda xatti-harakatlarga olib keladi, ularni ishlab chiquvchilar boshqariladigan modelni yaxshilash uchun oldindan tushunishni xohlashadi.
Anthropic o'z modeli Klodning "ongida" nima sodir bo'lishini tasvirlashga harakat qiladi. Ushbu yondashuv, nazariy jihatdan, Klod nima uchun ma'lum javoblarni tupurayotganini va turli xil o'qitish usullari ushbu neyron tarmoq ichida hosil bo'ladigan naqshlardagi o'zgarishlarga qanday yordam berishini tushuntirishi kerak. Bundan tashqari, kashf qilish shunchaki qiziqarli.
Bashoratlardan qat'i nazar, AIning keyingi bosqichini kuzatish qiziqarli bo'ladi. Va agar 5 yil ichida hech qanday inqilob sodir bo'lmasa, hech bo'lmaganda ushbu maqolani qayta o'qish tetiklantiruvchi bo'ladi, chunki men nihoyat oyiga 300 dollarlik OpenAI obunasini bekor qilishni tanladim.