“OpenAI Codex Kullanıcı Kılavuzu ile GPT-5 Codex’in geliştiriciler için sunduğu avantajları keşfedin. Codex vs Claude...
OpenAI GPT-5 Ekibini Yeniden Yapılandırdı ve Yapay Zeka “Halüsinasyonlarının” Temelini Açıkladı
OpenAI, GPT serisinin davranışsal yönlerinden sorumlu olan ekibinde önemli bir yeniden yapılanmaya gitti. Daha önce model davranış ekibini yöneten Joanne Jang, yeni kurulan OAI Labs laboratuvarının başına getirildi. Bu yeni laboratuvarın odak noktası, insan ve yapay zekâ arasındaki iş birliğini farklı etkileşim modelleri üzerinden araştırmak olacak.
Jang, GPT-4’ten GPT-5’e uzanan geliştirme sürecinde kritik bir rol oynamış ve Time dergisinin “Yapay Zekâda En Etkili 100 İsim” listesine girmeyi başarmıştı. Yeni görevine ilişkin yaptığı açıklamada ise şu ifadeyi kullandı:
“Yapay zekâ laboratuvarı çalışanları, insanların neyi üretebileceğine veya neyi üretemeyeceğine karar veren hakemler olmamalı.”
AI Halüsinasyonlarının Kaynağı Ortaya Çıktı
OpenAI, ekip değişikliğinin yanı sıra yapay zekâ alanında önemli bir araştırma raporu da yayımladı. Bu raporda, AI’nin neden “halüsinasyon” ürettiği yani güvenilir olmayan, yanlış cevaplar verdiği ortaya kondu.
Çalışmaya göre sorun, mevcut değerlendirme sistemlerinden kaynaklanıyor. Endüstri genelinde modeller, “yüksek skor” odaklı sınav benzeri testlerle ölçülüyor. Bu yaklaşım, yapay zekânın “bilmiyorum” demek yerine yanlış da olsa cevap vermesini teşvik ediyor.
Örneğin yapılan testlerde, AI sistemleri akademik makale yazarlarının doğum tarihi gibi basit ama kesin cevap gerektiren sorularda, çok sayıda yanlış cevap üretti.
Çözüm: “Yanıt Vermemeyi” Teşvik Eden Sistemler
Araştırmacılar, çözümün değerlendirme mekanizmasının yeniden tasarlanmasında olduğunu vurguluyor. Yeni yöntemle, modellerin emin olmadıkları durumlarda yanıt vermemeyi seçmeleri destekleniyor.
Veriler çarpıcı:
-
Model, %52 oranında “cevap vermemeyi” seçtiğinde hata oranı %26’ya düşüyor.
-
Buna karşın, her soruya cevap verdiğinde hata oranı %75’e kadar çıkıyor.
Bu bulgular, yapay zekâdaki halüsinasyon sorununu açıklamakla kalmıyor; aynı zamanda gelecekteki GPT modellerinin daha güvenilir hale gelmesi için de yol haritası sunuyor.
Sonuç
OpenAI’nin bu adımı, sadece model boyutunu büyütmek yerine, yapay zekânın ölçüm ve değerlendirme kriterlerini kökten değiştirmeyi hedefliyor. Bu yaklaşım, GPT-5 ve sonraki modellerde daha dürüst, güvenilir ve insanla uyumlu bir yapay zekâ deneyimi vaat ediyor.