OpenAI GPT-5 Ekibini Yeniden Yapılandırdı ve Yapay Zeka “Halüsinasyonlarının” Temelini Açıkladı

  • 07 Eyl 2025 08:48
  • Güncelleme: 07 Eyl 2025
    2 dk. Okuma Süresi
Yazı Özetini Göster

OpenAI, GPT serisinin davranışsal yönlerinden sorumlu olan ekibinde önemli bir yeniden yapılanmaya gitti. Daha önce model davranış ekibini yöneten Joanne Jang, yeni kurulan OAI Labs laboratuvarının başına getirildi. Bu yeni laboratuvarın odak noktası, insan ve yapay zekâ arasındaki iş birliğini farklı etkileşim modelleri üzerinden araştırmak olacak.

Jang, GPT-4’ten GPT-5’e uzanan geliştirme sürecinde kritik bir rol oynamış ve Time dergisinin “Yapay Zekâda En Etkili 100 İsim” listesine girmeyi başarmıştı. Yeni görevine ilişkin yaptığı açıklamada ise şu ifadeyi kullandı:

“Yapay zekâ laboratuvarı çalışanları, insanların neyi üretebileceğine veya neyi üretemeyeceğine karar veren hakemler olmamalı.”

AI Halüsinasyonlarının Kaynağı Ortaya Çıktı

OpenAI, ekip değişikliğinin yanı sıra yapay zekâ alanında önemli bir araştırma raporu da yayımladı. Bu raporda, AI’nin neden “halüsinasyon” ürettiği yani güvenilir olmayan, yanlış cevaplar verdiği ortaya kondu.

Çalışmaya göre sorun, mevcut değerlendirme sistemlerinden kaynaklanıyor. Endüstri genelinde modeller, “yüksek skor” odaklı sınav benzeri testlerle ölçülüyor. Bu yaklaşım, yapay zekânın “bilmiyorum” demek yerine yanlış da olsa cevap vermesini teşvik ediyor.

Örneğin yapılan testlerde, AI sistemleri akademik makale yazarlarının doğum tarihi gibi basit ama kesin cevap gerektiren sorularda, çok sayıda yanlış cevap üretti.

Çözüm: “Yanıt Vermemeyi” Teşvik Eden Sistemler

Araştırmacılar, çözümün değerlendirme mekanizmasının yeniden tasarlanmasında olduğunu vurguluyor. Yeni yöntemle, modellerin emin olmadıkları durumlarda yanıt vermemeyi seçmeleri destekleniyor.

Veriler çarpıcı:

  • Model, %52 oranında “cevap vermemeyi” seçtiğinde hata oranı %26’ya düşüyor.

  • Buna karşın, her soruya cevap verdiğinde hata oranı %75’e kadar çıkıyor.

Bu bulgular, yapay zekâdaki halüsinasyon sorununu açıklamakla kalmıyor; aynı zamanda gelecekteki GPT modellerinin daha güvenilir hale gelmesi için de yol haritası sunuyor.

Sonuç

OpenAI’nin bu adımı, sadece model boyutunu büyütmek yerine, yapay zekânın ölçüm ve değerlendirme kriterlerini kökten değiştirmeyi hedefliyor. Bu yaklaşım, GPT-5 ve sonraki modellerde daha dürüst, güvenilir ve insanla uyumlu bir yapay zekâ deneyimi vaat ediyor.

Bir Yorum Yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Benzer Yazılar