OpenAI kısa süre önce İstem Mühendisliği için bir kılavuz yayınladı. Rehber, GPT modellerinden daha iyi yanıtlar elde etmek için altı stratejiyi listeliyor ve özellikle en son sürümleri olan GPT-4 için örneklere odaklanıyor.
Kılavuzun altı üst düzey stratejisi şunlar: Açık talimatlar yazmak, referans metin sağlamak, karmaşık görevleri daha basit alt görevlere bölmek, modele “düşünmesi” için zaman vermek, harici araçlar kullanmak ve değişiklikleri sistematik olarak test etmek. Stratejilerin her biri, örnek yönlendirmelerle birlikte bir dizi spesifik, eyleme geçirilebilir taktiğe ayrıldı. Taktiklerin çoğu, düşünce zinciri yönlendirmesi veya özyinelemeli özetleme gibi LLM araştırmasının sonuçlarına dayanıyor.
OpenAI’nin GPT-3 üzerine 2020’de yayınlanan araştırma makalesi, modelin birkaç atış öğrenimi kullanarak çeşitli doğal dil işleme (NLP) görevlerini nasıl yerine getirebileceğini gösterdi; esasen, modele gerçekleştirilecek görevin bir açıklamasını veya örneklerini sorarak. 2022 yılında OpenAI, GPT-3’ün yanıtlarının “güvenilirliğini artırmaya yönelik çeşitli teknikler” içeren bir yemek kitabı makalesi yayınladı. Açık talimatlar vermek ve karmaşık görevleri parçalara ayırmak gibi bunlardan bazıları hala yeni kılavuzda yer alıyor. Eski yemek kitabı kılavuzu, teknikleri destekleyen araştırma makalelerinin bir bibliyografyasını da içeriyor.
Rehberdeki taktiklerin birçoğu Chat API’sinin sistem mesajını kullanıyor. OpenAI’nin belgelerine göre, bu parametre “asistanın davranışını belirlemeye yardımcı oluyor”. Bir taktik, modele yanıtlarını şekillendirmesi için bir persona vermek üzere kullanılmasını öneriyor. Bir diğeri ise modele uzun bir konuşmanın özetini iletmek ya da birden fazla kullanıcı girdisi için tekrarlanacak bir dizi talimat vermek için kullanılmasını öneriyor.
Harici araçları kullanma stratejisi, OpenAI’nin yemek kitabındaki makalelere işaret ederek GPT modelini diğer sistemlerle arayüzleme konusunda ipuçları veriyor. Taktiklerden biri, modelden matematik hesaplamalarını kendisinin yapmasını istemek yerine, hesaplamayı yapmak için Python kodu oluşturmasını önermektedir; kod daha sonra model yanıtından çıkarılacak ve yürütülecektir. Bununla birlikte kılavuzda, modelin ürettiği kodun güvenli olduğunun garanti edilmediği ve yalnızca bir kum havuzunda çalıştırılması gerektiğine dair bir feragatname yer alıyor.
Kılavuzdaki bir diğer strateji olan değişiklikleri sistematik olarak test etme, farklı bir komut isteminin gerçekten daha iyi veya daha kötü çıktıya yol açıp açmadığına karar verme sorununu ele alıyor. Bu strateji, InfoQ’nun GPT-4’ün yayınlanmasıyla birlikte ele aldığı OpenAI Evals çerçevesinin kullanılmasını önermektedir. Strateji ayrıca, sistem mesajı aracılığıyla “altın standart cevaplara referansla” kendi çalışmasını kontrol etmek için modelin kullanılmasını öneriyor.
Rehberle ilgili bir Hacker News tartışmasında bir kullanıcı şunları söyledi:
Son zamanlarda istemleri nasıl mükemmelleştireceğimi öğrenmek için çok fazla zaman ayırmakta tereddüt ediyorum. Görünüşe göre her yeni sürüm, farklı LLM’lerden bahsetmiyorum bile, farklı yanıtlar veriyor. Gördüğümüz hızlı ilerleme ile, iki ya da beş yıl içinde, sistemler daha akıllı hale geldikçe bu kadar karmaşık yönlendirmelere bile ihtiyacımız olmayabilir.
Diğer bazı LLM sağlayıcıları da hızlı mühendislik ipuçları yayınladı. GPT modellerine bir hizmet olarak erişim sağlayan Microsoft Azure, OpenAI’ninkine benzer tekniklerin bir listesine sahip; kılavuzları ayrıca modelin çıktı üretiminin rastgeleliğini kontrol eden sıcaklık ve top_p gibi model parametrelerinin ayarlanmasıyla ilgili ipuçları da sunuyor. Google’ın Gemini API belgeleri, top_p ve sıcaklık değerleri için önerilerin yanı sıra birkaç hızlı tasarım stratejisi de içeriyor.
Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.