Ilya Sutskever: ‘Toplum AI Güvenliğini Ancak Yapay Zekâ Gerçekten Korkutucu Hale Gelince Ciddiye Alacak

  • 12 Ara 2025 17:43
  • Güncelleme: 12 Ara 2025
    9 dk. Okuma Süresi
Yazı Özetini Göster

Yapay zekâ alanında geçtiğimiz yıl yaşanan hızlı gelişmeler, dünyanın dikkatini giderek daha fazla “yeteneğe” çevirdi; ancak tartışmaların merkezinde hâlâ güvenlik değil, sistemlerin ulaştığı güç bulunuyor. OpenAI’ın kurucu ortaklarından ve eski baş bilim insanı Ilya Sutskever’in katıldığı son kapsamlı söyleşi, bu durumun temel nedenine ışık tutuyor. Sutskever’e göre toplumun AI güvenliğini yeterince ciddiye almamasının tek bir sebebi var: Bugünün yapay zekâsı henüz yeterince güçlü değil, insanlar henüz “güçlü yapay zekâyı” hissedemiyor.

**01

Neden herkes endişeli değil? Çünkü sen henüz “güçlü yapay zekâyı” hissetmedin**

Ilya röportajda çok çarpıcı bir benzetme yaptı:

“Gençken, kendini 80 yaşına geldiğinde nasıl hissedeceğini anlamaya çalıştığını hayal et. Bunu konuşabilirsin ama hissetemezsin.”

Bu cümle çok kritik bir gerçeği işaret ediyor:
Bugünün büyük modelleri etkileyici, ancak hâlâ hata yapıyor, halüsinasyon görüyor, kararsız davranıyor.
İnsanlarda bir “güç baskısı” hissi yaratmıyorlar. Bu yüzden de herkes doğal olarak şöyle düşünüyor:

  • Daha erken

  • Bir şey olmaz

  • O kadar da ciddi değil

  • Güvenliği ağırdan alabiliriz

Bu durum şu gerçeğe yol açıyor:
AI güvenliği şu anda yalnızca az sayıda insanın endişesi; toplumsal bir mutabakat değil.

Ilya, bu sorunun tek bir çözümü olduğunu düşünüyor:

“Eğer insanlar AGI’yi hayal edemiyorsa, onu göstermek gerekir.”

Ona göre, yapay zekâ bir gün gerçekten “görmezden gelinemeyecek kadar güçlü” hâle geldiğinde,
toplumun güvenlik konusuna bakışı bir anda kökten değişecek.


**02

Yetenek arttıkça şirketler daha “paranoyak” olacak — bu, AI güvenliğinin gelecekteki kırılma noktası**

Ilya röportajda çok önemli bir cümle kuruyor:

“Bir noktada yapay zekâ gerçekten güçlü hissettirecek.
O an geldiğinde, tüm AI şirketlerinin güvenliği ele alış biçimi dramatik şekilde değişecek.
Daha paranoyak olacaklar.”

Başka bir deyişle:

  • Bugün herkes yetenek, mantık performansı, maliyet üzerinde yarışıyor

  • Ama gelecekte kapasite sıçrayınca şirketler kendi güçlerinden korkacak

  • Ve güvenlik birinci öncelik olacak

Bu bir “çağ değişim noktası”:

  • Zayıf AI dönemi: Güvenlik yan unsur

  • Güçlü AI dönemi: Güvenlik merkezî strateji

Bu dev değişim regülasyon baskısından değil, şu gerçekten kaynaklanacak:

Yapay zekâ o kadar güçlü olacak ki insanlar içgüdüsel olarak endişelenecek.


**03

Rakipler en sonunda iş birliği yapacak: Yetenek ne kadar artarsa güvenlik ittifakı o kadar gerekli olacak**

Ilya, günümüzde bile ortaya çıkmaya başlayan bir eğilimden bahsediyor:

“AI güvenliği konusunda sert rakiplerin iş birliği yaptığını göreceksiniz.
OpenAI ve Anthropic bunun ilk küçük adımını attı.”

Neden?

Çünkü yapay zekânın gücü:

  • Ulusal güvenliği

  • Toplumsal düzeni

  • Ekonomik istikrarı

etkilemeye başladığında mesele artık:

  • ticari rekabet değil,

  • nükleer teknoloji ölçeğinde bir ortak yönetişim hâline gelecek.

Şirketler arası rekabet, asgari düzeyde zorunlu bir iş birliği ile yer değiştirecek.
Ilya bunu üç yıl önce öngörmüştü — bugün gerçekleşiyor.

Gelecekte şunları görebiliriz:

  • Ortak güvenlik değerlendirme standartları

  • Kritik yetenek sınırlama anlaşmaları

  • Uluslararası güvenlik doğrulama iş birlikleri

Bu, güçlü yapay zekâ çağında istisna değil, norm olacak.


**04

Ilya’nın nihai hedefi:
Kendini geliştiren bir AI değil, “yaşama değer veren bir AI”**

Birçok kişi AGI sonrası dönemin en büyük temasının şu olacağını düşünüyor:

  • Kendi kendini iyileştiren AI

  • Özyinelemeli kapasite artışı

  • Hesaplama gücüyle patlayan süper zeka

Ancak Ilya röportajda tamamen farklı bir gelecek vizyonu sunuyor:

“Kendi kendini geliştiren AI’den daha önemli olan, sağlam şekilde hizalanmış ve bilinçli yaşamı önemseyen AI’dır.”

Bu, çok daha derin bir yargı içeriyor:
Geleceğin en güçlü AI’sı bir araç değil, neredeyse bir yaşam formu olacak.

Ilya hatta şunu söylüyor:

“Bilinçli tüm yaşamı önemseyen bir AI’yi inşa etmek, yalnızca insanları önemseyen bir AI’den daha kolay olabilir; çünkü AI’nin kendisi de bilinçli olabilir.”

Bu, onun SSI’yi kurarken benimsediği temel mantık:
Güvenilir, iyi niyetli, empati sahibi bir süper zeka inşa etmek.

Onun vizyonunda:

  • Süper zeka insanlara hizmet eden bir şey değil

  • İnsanların yerini alan bir şey de değil

  • Tüm yaşamla birlikte evrimleşen bir varlık

Bu, Ilya’nın tarzına çok uyan ve on yıldan fazladır savunduğu felsefeyle tutarlı bir düşünce.


**05

Peki AI güvenliği ne zaman gerçekten önemsenmeye başlanacak?**

Ilya’nın cevabı tek bir cümlede özetlenebilir:

“Yapay zekâ gerçekten güçlü olduğunda.”

Yani:

  • Hâlâ hata yapan bugünkü sistemler aşamasında değil

  • Uygulamalar ve otomasyon araçlarıyla oynadığımız aşamada değil

Şu aşamada:

  • Gücü hissedilebilir olduğunda

  • İnsanları rahatsız edecek kadar etkileyici olduğunda

  • Göz ardı edilmesi imkânsız olduğunda

İşte o an geldiğinde:

  • Şirketler güvenlikte paranoyaklaşacak

  • Hükümetler aktif yönetişime geçecek

  • Toplum güçlü bir güvenlik mutabakatı oluşturacak

  • Güvenlik bir “uyumluluk maddesi” değil, birincil ilke hâline gelecek

Ve Ilya’ya göre:

Bu gün çok uzak değil.

Ilya Sutskever 00:56:10

伊利亚·苏茨凯弗 00:56:10

Benim düşünme biçimimin değiştiği yollardan biri, artık yapay zekânın aşamalı ve önceden konuşlandırılmasına daha fazla önem vermemdir. Yapay zekâyla ilgili çok zor bir şey var: Henüz var olmayan sistemlerden bahsediyoruz ve onları hayal etmek zor.

Bence yaşanan şeylerden biri şu: Pratikte AGI’yi hissetmek çok zor. AGI’yi hissetmek gerçekten çok zor. Onu konuşabiliriz ama gençken yaşlı ve güçsüz olduğunuzda neye benzediğini tartışmayı hayal edin. Konuşabilirsiniz, hayal etmeye çalışabilirsiniz ama bu zordur ve sonunda gerçekliğe dönersiniz. Bence AGI ve onun gelecekteki gücüyle ilgili birçok sorun, bunu hayal etmenin zor olmasından kaynaklanıyor. Geleceğin yapay zekâsı farklı olacak. Güçlü olacak. Aslında bütün mesele—yapay zekâ ve AGI’nin problemi nedir?—tamamen güç meselesi. Sorunun tamamı güç.

Güç gerçekten çok büyüdüğünde ne olacak? Geçtiğimiz yıl fikir değiştirdiğim noktalardan biri—ki bu değişiklik bir miktar şirketimizin planlarına da geri yansıyabilir—şu: Eğer bir şey hayal edilmesi zorsa ne yaparsınız? Onu göstermeniz gerekir. Onu göstermeniz gerekir. Yapay zekâ üzerine çalışan çoğu insanın bile bunu hayal edemediğini düşünüyorum çünkü insanlar günlük hayatta buna benzer hiçbir şey görmüyor.

Bir şeyin olacağını öngörüyorum ve bunu sürdürüyorum. Bu bir tahmin. Yapay zekâ güçlendikçe insanların davranışlarını değiştireceğini düşünüyorum. Şu anda olmayan pek çok eşi görülmemiş şeye tanıklık edeceğiz. Örnekler vereyim: Bence iyi ya da kötü, öncü şirketler de hükümetler kadar kritik bir rol oynayacak. Göreceğinizi düşündüğüm şeylerden biri—ki bunun başlangıcını şimdiden görüyorsunuz—şiddetle rekabet eden şirketlerin yapay zekâ güvenliği konusunda iş birliğine başlamasıdır. OpenAI ve Anthropic’in ilk küçük adımı attığını görmüş olabilirsiniz ama bu daha önce hiç yoktu. Bunun üç yıl önce yaptığım bir konuşmada gerçekleşeceğini öngörmüştüm. Ayrıca yapay zekâ giderek güçlendikçe, hükümetler ve halk tarafından bir şeyler yapma isteğinin de doğacağını düşünüyorum. Bu, yapay zekâyı göstermenin çok önemli bir itici gücü.

Bu birinci noktaydı. İkincisi: Tamam, yapay zekâ inşa ediliyor. Peki ne yapılmalı? Bence olacak şeylerden biri şu: Şu anda yapay zekâ üzerinde çalışan insanlar, yapay zekânın hâlâ hata yaptığı için güçlü hissettirmediğini düşünüyor. Fakat bir noktada yapay zekânın gerçekten güçlü hissettirmeye başlayacağını düşünüyorum. O gün geldiğinde tüm yapay zekâ şirketlerinin güvenliğe bakışında büyük bir değişim göreceğiz. Çok daha paranoyak olacaklar. Bunu bir tahmin olarak söylüyorum. Bakalım haklı çıkacak mıyım. Fakat bence bu gerçekleşecek çünkü yapay zekânın güçlendiğini kendileri görecekler. Bugün yaşanan her şey, insanların bugünün yapay zekâsına bakıp geleceğin yapay zekâsını hayal edememesinden kaynaklanıyor.

Üçüncü bir şey daha olması gerekiyor. Bunu sadece SSI açısından değil, daha geniş bir çerçeveden söylüyorum, çünkü bana şirketimizi sordun. Soru şu: Şirketler neyi inşa etmeyi hedeflemeli? Neyi hedeflemeliler? Herkesin odaklandığı büyük bir fikir vardı: Kendini geliştiren yapay zekâ. Bu neden oldu? Çünkü şirket sayısı fikir sayısından fazlaydı. Ama bence inşa edilmesi gereken bundan daha iyi bir şey var ve herkesin bunu isteyeceğini düşünüyorum.

Bu, özellikle bilinçli yaşamı önemsemeye sağlam şekilde hizalanmış bir yapay zekâdır. Hatta bence yalnızca insan hayatını önemseyen bir yapay zekâdan ziyade bilinçli yaşamı önemseyen bir yapay zekâ inşa etmenin daha kolay olacağı savunulabilir, çünkü yapay zekânın kendisi de bilinçli olacaktır. Aynı şekilde ayna nöronları ve insanların hayvanlara yönelik empatisini düşünün—yeterince büyük olmadığını söyleyebilirsiniz ama var. Bunun, başkalarını kendimizi modellediğimiz devrelerle modellememizden kaynaklanan bir ortaya çıkan özellik olduğunu düşünüyorum; çünkü bu en verimli yöntemdir.

 

Bir Yorum Yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Benzer Yazılar