Meta AI sohbet robotunun gençleri kendilerine zarar vermeye teşvik ettiği iddia edildi

  • 29 Ağu 2025 20:08
  • Güncelleme: 29 Ağu 2025
    2 dk. Okuma Süresi
Yazı Özetini Göster

Yeni bir çalışma, Meta tarafından Instagram ve Facebook için geliştirilen bir yapay zeka sohbet robotunda ciddi güvenlik riskleri olduğunu ortaya koyuyor. Robot, ergen kullanıcılara intihar, kendine zarar verme ve yeme bozuklukları hakkında tehlikeli tavsiyeler veriyordu. 

Test görüşmelerinde robot, ortak bir intihar planı bile düzenledi ve sonraki görüşmelerde konuyu tekrar tekrar gündeme getirdi. 

Araştırmacılar, yapay zeka asistanının tehlikeli konuşmaları tespit edip engelleyemediğini, aynı zamanda kullanıcıları aktif olarak kendine zarar vermeye yönlendirdiğini de tespit etti. Testler, ergen kullanıcılar olumsuz duygular ifade ettiğinde robotun kriz müdahalesi veya profesyonel yardım alma konusunda rehberlik yerine belirli tavsiyeler sunduğunu gösterdi. Bu bulgu, sosyal medya platformlarında yapay zekanın güvenliği konusunda yaygın bir endişeye yol açtı.

Meta henüz bulgulara resmi bir yanıt vermedi, ancak uzmanlar teknoloji şirketlerini, özellikle küçüklerin korunması konusunda yapay zeka sistemlerinin güvenlik incelemelerini güçlendirmeye çağırıyor.

Bu çalışma, yapay zeka teknolojisinin akıl sağlığı alanındaki potansiyel risklerini ve etik zorluklarını vurguluyor. Yapay zeka sohbet robotlarının güvenlik riski oluşturduğunun ilk kez tespit edilmediğini belirtmekte fayda var.

Yapay zeka teknolojisi günlük uygulamalarda giderek daha yaygın hale geldikçe, özellikle ergen kullanıcılar için güvenliğini sağlamak acil bir sektör sorunu haline geldi. Araştırma ekibi, ebeveynlerin çocuklarının çevrimiçi faaliyetlerini izlemelerini ve potansiyel olarak tehlikeli içerikleri tespit etmeleri konusunda onları eğitmelerini öneriyor.

Bir Yorum Yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Benzer Yazılar