Eserlerin Tanıtımı
Yapılandırılmış çıktı üretiminde bir adım ileri.
Düşünme
Mantıksal düşünme, üretim sürecinin önemli bir parçasıdır.
Tanımlayıcılar ve Arama
Eserlerin aranması ve alınması, sistem isteminin önemli bir parçasıdır.
Şablonlama dili yapısı
Giriş değişkenlerine göre değişecek bir işleme şablonu
Çözüm
Claude için küçük bir eser, yapay zeka için dev bir adım.
Claude 3.5 sistemi
Sistem tam olarak ister
Yapılandırılmış çıktı üretiminde bir adım ileri.
Bu , Claude 3.5 Sonnet için sistem istemi oluşturmanın bir analizidir. Bu analiz için kodun bağlantısı kaynakla birlikte alt kısımda mevcuttur. Bu analizin ana odağı, eserler kavramının tanıtılması ve bunun akıllı bir sınıflandırma ve erişim sisteminin parçası olarak nasıl çalışabileceğidir.
“Yapılar, kullanıcıların değiştirebileceği veya yeniden kullanabileceği önemli, bağımsız içerik içindir.
Bir eser bir paradigma değişikliğidir çünkü yeni bir kavramı resmileştirir. Kalıcı veri kavramı. Kalıcı veriler, üst düzeyde seçilmiş ve yapılandırılmış bir içerik kitaplığına erişmemiz için bir basamaktır. Sabit referanslar sağlayarak yinelemenin ve çıktıyı aşamalı olarak iyileştirme ve iyileştirme yeteneğinin engelini kaldırıyoruz. Bu, ayrıntılı LLM çıktısının geçici doğasını kontrol etmeye yönelik bir adımdır.
Kod tamamlama gibi işlevsel görevlerde Üretken Yapay Zekanın doğasında olan sorunlardan biri, basit değişiklikler için genellikle dosyaların tamamını tekrarlamalarıdır. Aynı içeriği tekrarlamak yerine, öncesi ve sonrası arasındaki farkı ortaya koyduğumuz bir 'fark' özelliğine büyük bir talep var.
Dolayısıyla eserler ikili bir amaca hizmet eder; Birincisi, çıktıya nasıl ve nerede ihtiyacımız olduğuna dair bir referans noktası görevi görürler. Bu, kapsamın ayarlanması veya bir referans noktasının tanımlanması gibidir. Bu, LLM'nin orijinal problemin odağını kaybetmesini önleyecek ve aynı zamanda çıktıdaki yapı ve kategorizasyonun kalıcı olmasını sağlayacaktır.
Bonus noktası olarak otomatik tamamlama özelliğimiz de var. Değişikliklerin 'temel' kodunu ve kapsamını tanımlayarak, artık LLM'mizi fikir sahibi ve seçilmiş bir şekilde belirli bir göreve veya soruna odaklanmaya yönlendirdik. Bu, yakınlaştırmadaki düzensiz değişimleri durdurur ve aynı zamanda devam eden tüm çalışmanın istemine göre yapılmasını sağlar. "Kodun geri kalanı burada" ifadesini kullanarak kodunu yanlışlıkla silen mühendislere teşekkür ederiz. Kapsamın ayarını burada görebiliriz:
“Konuşmanın bağlamı olmaksızın kendi başına anlaşılabilen, müstakil, karmaşık içerik
Odağı kontrolsüz ayrıntılı çıktılardan somut bir yapıya yönlendiriyoruz. Konuşmanın bağlamını göz ardı etme yönündeki açık talimata dikkat etmek önemlidir. Bu, seçilmiş verilere referansla kaliteyi sağlamanın bir yöntemidir. Girdinin ayrıntılı ve potansiyel olarak rastgele özelliklerini kontrol eden bir kalite kontrol mekanizmasıdır.
Bütün bunlar, erişime yönelik bir mimariyle birbirine uyuyor. Derlenmiş eserlerden oluşan derin bir kütüphaneye sahip olarak, artık sistemimizi kontrollü bir veri kümesinden almaya yönlendirebiliriz. Tüm büyük yapay zeka sağlayıcılarının ağırlıklı olarak yüksek kaliteli seçilmiş verilere yatırım yapmaya odaklandığını biliyoruz. Yapıtlar, ayrıntılı girdi ve çıktıyı bir yapıyla çerçevelemeye yönelik bir adımdır.
Bilgi isteminde girdi ve eşlemeden sistem tanımlı araştırmaya odaklanıldığını görebiliriz. Aşağıda bazı hariç tutma kriterlerine bir örnek verilmiştir:
“Yararlı olması için mevcut konuşma bağlamına bağlı olan içerik.
Kullanıcı tarafından değiştirilmesi veya yinelenmesi muhtemel olmayan içerik.
Kullanıcılardan gelen, tek seferlik bir soru gibi görünen istek.
İstem aktif olarak sistem bağlamına ve eldeki göreve odaklanıyor. İstem, çok spesifik bir çıktıyla ilgili olmayan girdiyi açıkça filtrelemeye çalışıyor. Böylece eser, hem oluşturulan metinde hem de perde arkasında yapılandırılmış veri olarak somut bir referans noktası görevi görüyor. Bu bize hızlı ve doğru bir şekilde geri alma ve odaklanma olanağı sağlar. Çok işe yarayacak bir şey...
Mantıksal düşünme, üretim sürecinin önemli bir parçasıdır.
Uzman mühendisler uzun süredir bize, güvenilir çıktının anahtarlarından birinin Yüksek Lisans'ların çok adımlı yapılandırılmış ve mantıksal bir düşünce süreci oluşturma zorunluluğu olduğunu söylüyorlar. İstemde bunun resmi olarak kabul edildiğini görüyoruz.
“1. Bir yapıyı çağırmadan önce kısaca, <antthinking> etiketlerinde onun iyi ve kötü bir yapıt kriterlerine göre nasıl değerlendirildiğini bir cümle düşünün. İçeriğin herhangi bir yapaylık olmadan gayet iyi çalışıp çalışmayacağını düşünün. Yapıt açısından değerliyse, başka bir cümleyle bunun yeni bir yapı mı yoksa mevcut olanın (en yaygın olanı) güncellemesi mi olduğunu belirleyin. Güncellemeler için önceki tanımlayıcıyı yeniden kullanın.
Burada, sistemimizi, görevi ve çıktıyı analiz etmek için yapılandırılmış çok adımlı bir süreç almaya zorunlu tutuyoruz. Yine ayrıntılı içeriğin güçlü tanımına doğru ilerleyerek eserler için bir arama ve erişim sistemine atıfta bulunuyoruz.
“<antthinking>Faktöriyelleri hesaplamak için bir Python betiği oluşturmak, iyi bir yapıtın kriterlerini karşılıyor. Kendi başına anlaşılabilen ve yeniden kullanılması veya değiştirilmesi muhtemel olan, bağımsız bir kod parçasıdır. Bu yeni bir konuşma, dolayısıyla önceden var olan hiçbir yapı yok. Bu nedenle yeni bir yapıt yaratıyorum.</antthinking>
<antthinking>Bu istek, mevcut faktöriyel hesap makinesi yapısının doğrudan değiştirilmesidir. Bu yeni bir eser değil, betiği daha sağlam hale getirecek bir güncelleme. Sürekliliği korumak ve kodumuzun gelişimini göstermek için faktöriyel hesaplayıcı tanımlayıcısını yeniden kullanacağım.</antthinking>
Burada tanımlanmış çıktıların üretilmesi için mantıksal bir düşünce sürecinin uygulanmasını görebiliriz. Algoritmamızın aynı mantıksal adımlardan geçmesini sağlayarak akıllı ve tekrarlanabilir bir üretim sürecinin tohumlarını atmış oluyoruz.
Bu mantığı bir kişinin düşünce sürecine eşleyebiliriz. Her şeyden önce mantıklı ve akılcı bir problem çözme yaklaşımımız var. Bunu sert eserlerle tamamlıyoruz. LLM veri seti beyindir ancak eserler, belirli bir çıktıya ulaşmamızı sağlayan beceri ve bilgilerdir.
Tüm rakip modelleri hayal edersek, bunların mantıksal düşünce süreçlerinin kopyalanmasına dayandığını çıkarabiliriz. Aslında bir insanın mantıksal düşünce sürecini taklit edecek bir robot beyni yaratıyoruz. Beyni besleyen eksik parçaları, bilgiyi, yapıları ve geri getirme süreçlerini inşa ediyoruz.
Bu, sistem istemlerini ve talimatlarını inanılmaz derecede değerli varlıklar haline getirir. "Mantıksal düşünmenin" anlaşılması ve geliştirilmesi, üretim sürecinin önemli bir parçasıdır.
Bu yapılandırılmış düşüncenin bazı temel uygulamalarını kodda görebiliriz...
Eserlerin aranması ve alınması, sistem isteminin önemli bir parçasıdır.
“<antartifact identifier=”factorial-script” type=”application/vnd.ant.code” language=”python” title=”Basit Python faktöriyel betiği”> def faktöriyel(n): if n == 0: return 1 else : dönüş n * faktöriyel(n - 1)
Peki application/vnd.ant.code nedir? Uygulama yeterince basittir, VND satıcıdır, ANT Anthropic (Claude'un yaratıcıları) ve kod olacaktır; bu onların mimarisine dair bir içgörü. İnsanların LLM'lerle başarmaya çalıştıkları görevleri listeleyen bir tür sınıflandırma ve yapılandırılmış veri beklerdim.
Kodlama görevleri
Sunumlar
Belgeler
Analiz
Çok daha fazlası...
Örneğin, bir PowerPoint sunumu denemesi için bazı sahte kodlar oluşturabiliriz.
<antartifact identifier="powerpoint-presentation" type="application/vnd.ant.presentation" purpose="business" title="Simple powerpoint presentation"> Slide 1: Title slide Slide 2: Introduction Slide 3: Problem statement Slide 4: Solution </antartifact>
Bu neredeyse kesinlikle üretim koduna benzemiyor, ilginç bir zihinsel paradigma. Ayrıntılı çıktıyı kontrol etmek ve yapılandırmak için girdi ve çıktıyı kategorize etmeye ve standartlaştırmaya yönelik mantıksal ve rasyonel süreçlerle karşılaşmamız gerekir.
Bunun, girdiler geldiğinde, varlık çıkarma ve sınıflandırmayı çalıştıran, savaşla güçlendirilmiş ayrı algoritmalar çalıştırdıkları anlamına geldiğinden şüpheleniyorum. Bu yapılandırılmış veriler daha sonra bir varlık arama ve alma sürecinden geçirilir. Metin için vektör veritabanlarını kullanıyoruz; diğer tanımlanmış çıktılar için artık bu yapay yapılar kavramını tanıttık. Örneğin, bir React Code görevi şuna benzer bir şey olabilir.
"INPUT: Create a react component for a metrics dashboard", "ENTITY_EXTRACTION: Coding, React, Metrics Dashboard", "ENTITY_SEARCH: Retrieve code artifacts for Metrics Dashboard where type = React", "SYSTEM_PROMPT: create_system_prompt(artifact_id='metrics-dashboard-component', type='application/vnd.ant.code', language='react')"
Devam eden çok şey var ve esasen sınırsız bir teorik görev havuzuna yönelik yüksek kaliteli örnekler ve sınıflandırmalar geliştirmek için perde arkasında ihtiyaç duyulan zorlu alanları görebiliyoruz. Bunu otomatikleştirmek için perde arkasında diğer AI sınıflandırma algoritmalarıyla yinelemeler yapılacak.
Ancak görebildiğimiz kadarıyla özünde, özel bir şablonlama diline dayanan süslü bir arama ve bulma sistemidir.
Giriş değişkenlerine göre değişecek bir işleme şablonu.
Kariyerime yıllar önce Drupal geliştiricisi olarak başladım. Bilgi istemini okuyunca aklıma gelen kelime TWIG oldu. Twig, PHP'den HTML'deki şablonları oluşturmak için yaygın olarak kullanılan bir HTML şablonlama dilidir. Claude neredeyse kesinlikle girdi ve bağlamı yapılandırılmış verilere (muhtemelen Yüksek Lisans dışından elde edilen) dayalı olarak uyarlayan eşdeğer bir yaklaşım kullanacaktır.
Görünüşe göre Claude Sonnet 3.5 de benzer bir şey kullanıyor ve bu da çok mantıklı. LLM'ye metin girişi göz önüne alındığında, sistematik olarak metin blokları oluşturmamız gerekir. Bunlar, istemi oluşturmak için bir araya getirilen dinamik etiketlerdir.
<antartifact></antartifact>
<artifacts_info><artifacts_info/>
<örnek></örnek>
<user_query></user_query>
<example_docstring></example_docstring>
<assistant_response></assistant_response>
Bu, bir tür işlev çağırma yaklaşımından yararlanacaktır. Her etiketin belirli bir amacı vardır. Bu daha sonra modelimizi her özel amaç için doğru kategoriyi ve türü bulmaya yönlendirirken bir soyutlama görevi görür. Hızlı inşaatın buna benzer bir şey olacağını hayal ediyorum. Devasa spekülatif sözde kod geliyor…
function generate_reference() { context=artifact_type, artifact_id, task examples = search_examples_by_type('react', 'hooks', 'current_ids') return structured_data } function generate_system_instruction(structured_data) { <antartifact> <artifacts_info {{ attribute(version, '1.00') }}> <% artifact_introduction %> <% artifact_selection %> <% artifact_elimination %> <% artifact_usage %> <% artifact_instruction {{ type(code, 'data-code') }} {{ type(react, 'data-react') }} %> </ artifacts_info/> <example {{ for react_example in react_code_artifact }}>{react_example }</example> <example_docstring {{ for example_thought_process in curated_artifact_generation_example }}>{example_thought_process }<example_docstring /> <user_query>{sanitized_user_query}</user_query> <assistant_response>{sanitized_user_query}</assistant_response> </antartifact }
İşte bloklara bölünmüş bir düşünce süreciyle karşı karşıyayız. Gelişmiş arama ve alma ile haritalanan varlık çıkarma. Mantıksal bir düşünce sürecinin yapı taşları. Destekleyici veriler çıktının kalitesinin anahtarıdır.
Claude için küçük bir eser, yapay zeka için dev bir adım.
Yapıtlar, kod oluşturma gibi yapılandırılmış çıktılara yöneliktir, vektör araması ise paçavradır. Yapılandırılmış çıktı için arama ve alma sistemidir.
Claude 3.5'te yapılandırılmış ve rasyonel bir düşünce sürecinin kanıtlarını görüyoruz. Üretken yapay zekada her zaman önemli olmasını beklediğimiz bir şey var ama bu resmi bir kanıt.
Geliştiricilerden ve pazarlamacılardan oluşan bir ordunun, özenle seçilmiş eserlerden oluşan kütüphaneler oluşturduğunu hayal edebiliyorum. Bu kütüphaneye sınıflandırma ve ardından arama ve alma görevleri aracılığıyla erişilir. Ancak ileriye doğru atılacak gerçek adım, sebat kavramıdır.
Eski eserlerle çalışarak geçici olanın ötesinde var olan referans noktalarımız olur. İyileştirilip yeniden kullanılabilenler. Zaten düşüncemiz ve ayrıntılı çıktımız vardı. Artık anılarımız ve uzmanlığımız var...