Meta, AB’nin Gönüllü Yapay Zeka Güvenlik Yönergelerini İmzalamayı Reddetti

Meta, AB’nin Gönüllü Yapay Zeka Güvenlik Yönergelerini İmzalamayı Reddetti
Yazı Özetini Göster

Önemli Noktalar:

  • Meta, AB’nin gönüllü GPAI Uygulama Kuralları’nı imzalamayı reddetti ve bunun yapay zeka Yasası’nın kapsamını aştığını ileri sürdü.
  • GPAI Kodu, genel amaçlı yapay zeka modelleri için şeffaflık, telif hakkı ve güvenlik konusunda gönüllü taahhütler belirler.
  • Meta’nın Llama 4’ü gibi 10²⁵’den fazla FLOP kullanan modeller, Kanun kapsamında sistemik risk taşıdığı kabul edilir.
  • AB yapay zeka Yasası 2 Ağustos’ta yürürlüğe giriyor ve GPAI katılımından bağımsız olarak tüm genel amaçlı yapay zeka sağlayıcılarının uyum sağlamasını zorunlu kılıyor.
  • Meta, AB’de daha sıkı bir incelemeyle karşı karşıya; son dönemde veri gizliliği ve antitröst ihlalleri nedeniyle toplam 997 milyon avroyu aşan para cezaları kesildi.

Yüksek riskli yapay zeka modellerine bağlı gönüllü kodlara ait meta nesneler

AB yapay zeka Yasası yürürlüğe girmeden iki hafta önce , Avrupa Komisyonu, şirketleri büyük ölçekli yapay zeka modellerinin sorumlu bir şekilde geliştirilmesi ve devreye alınması konusunda taahhütte bulunmaya çağıran gönüllü bir çerçeve olan GPAI Uygulama Kuralları’nı yayınladı . Kurallar, devasa bilgi işlem kaynakları kullanılarak eğitilen genel amaçlı yapay zeka (GPAI) modellerini hedefliyor ve geliştiricileri şeffaflığı artırmaya, telif hakkı korumalarını sürdürmeye ve yüksek riskli sistemler için gelişmiş güvenlik protokolleri uygulamaya çağırıyor.

Ancak Meta, imzalama davetini reddetti. Şirket, yönergelerin gereksiz hukuki belirsizlik yarattığını ve bağlayıcı AB yapay zeka Yasası’nın gerektirdiğinin ötesine geçtiğini savunuyor.

Meta’nın küresel ilişkilerden sorumlu başkanı Joel Kaplan, LinkedIn’de paylaştığı bir gönderide, “Avrupa Komisyonu’nun genel amaçlı yapay zeka (GPAI) modelleri için Uygulama Kuralları’nı dikkatlice inceledik ve Meta bunu imzalamayacak,” diye yazdı. “Bu Kurallar, model geliştiricileri için bir dizi yasal belirsizliğin yanı sıra yapay zeka Yasası’nın kapsamının çok ötesine geçen önlemler de getiriyor.”

Teknoloji egemenliği, güvenlik ve demokrasiden sorumlu İcra Başkan Yardımcısı Henna Virkkunen , “Komisyon, bugünkü yönergelerle yapay zeka Yasası’nın sorunsuz ve etkili bir şekilde uygulanmasını destekliyor,” dedi . “Genel amaçlı yapay zeka sağlayıcıları için yapay zeka Yasası yükümlülüklerinin kapsamı konusunda yasal kesinlik sağlayarak, yeni kurulan şirketlerden büyük geliştiricilere kadar yapay zeka aktörlerinin güvenle yenilik yapmalarına yardımcı olurken, modellerinin güvenli, şeffaf ve Avrupa değerleriyle uyumlu olmasını sağlıyoruz.”

GPAI Kodu, 10²⁵’den fazla FLOP ile eğitilen büyük ölçekli modelleri hedefliyor

Komisyon’un GPAI Kodu, neredeyse tüm modern öncü modelleri kapsayan bir eşik olan 10²³’ten fazla kayan nokta işlemi (FLOP) kullanılarak eğitilen modellere odaklanmaktadır. Ölçekleriyle ilişkili sistemik riskler göz önüne alındığında, modelleri 10²⁵ FLOP’u aşan geliştiricilerden ek taahhütler almaları istenmektedir.

Meta, OpenAI, Google ve Anthropic’inkiler de dahil olmak üzere 30’dan fazla büyük yapay zeka modeli bu üst aralığa giriyor. Tahmini 5 × 10²⁵ FLOP ile eğitilen Meta’nın Llama 4 modeli de buna bir örnektir.

Meta, Kod’a katılmama kararına rağmen, 2 Ağustos 2025’te yürürlüğe girecek olan yapay zeka Yasası’nın bağlayıcı hükümlerine tabi olmaya devam edecek.

Avrupa Komisyonu sözcüsü Thomas Regnier, “Uygulama Kuralları gönüllü bir araç, ancak sağlam bir ölçüt,” dedi. “Bir sağlayıcı Uygulama Kuralları’nı imzalamamaya karar verirse, başka uyum yöntemlerini göstermesi gerekecektir. Başka yollarla uyum sağlamayı seçen şirketler, yapay zeka Ofisi tarafından daha fazla düzenleyici denetime tabi tutulabilir.”

Meta, AB düzenlemeleri konusunda daha geniş endüstri endişelerine işaret ediyor

Kaplan ayrıca, Siemens, Airbus ve BNP Paribas gibi Avrupalı şirketlerin AB’nin yaklaşımının inovasyonu engelleyebileceğini savunan son eleştirilerine de değindi. Bu şirketler, bu ayın başlarında yayınladıkları açık mektupta , olası ekonomik etkileri gerekçe göstererek AB liderliğini yapay zeka Yasası’nın uygulanmasını durdurmaya çağırdı.

Kaplan, “Bu işletmelerin dile getirdiği endişeleri paylaşıyoruz; bu aşırı erişim, Avrupa’da sınır ötesi yapay zeka modellerinin geliştirilmesini ve dağıtımını kısıtlayacak ve bu modellerin üzerine iş kurmak isteyen Avrupalı şirketlerin önünü kesecek” diye yazdı.

Meta’nın AB’deki daha geniş düzenleyici gerilimleri

Meta’nın GPAI Kurallarına karşı çıkışı, AB düzenleyicileriyle artan gerginliğin ortasında ortaya çıktı. Şirket, Nisan ayında “Onay veya Öde” reklam modeliyle Avrupa Dijital Piyasalar Yasası’nı (DMA) ihlal ettiği gerekçesiyle 200 milyon avro (~232,6 milyon dolar) para cezasına çarptırılmıştı. Komisyon, takip eden bir yazıda, Meta’yı yaklaşımının hala uyumsuz olduğu konusunda uyardı.

Daha önce Kasım 2024’te Meta, Facebook Marketplace’i daha geniş Facebook platformuna bağlayarak AB antitröst kurallarını ihlal ettiği gerekçesiyle ek olarak 797,72 milyon € (~927,19 milyon $) para cezasına çarptırılmıştı.

yapay zeka Okuyucuları İçin Hızlı Bilgiler

S: GPAI Uygulama Kuralları nedir?

A: Büyük ölçekli modeller için şeffaflığı, telif hakkı korumasını ve yapay zeka güvenliğini teşvik eden, genel amaçlı yapay zeka geliştiricilerine yönelik gönüllü bir AB çerçevesi.

S: Meta neden imzalamayı reddetti?

A: Meta, Kanun’un bağlayıcı AB yapay zeka Yasası’nın kapsamının ötesinde hukuki belirsizlikler ve gereklilikler getirdiğini söylüyor.

S: Reddedilme, Meta’yı AB kurallarından muaf tutar mı?

C: Hayır. AB yapay zeka Yasası 2 Ağustos’ta yürürlüğe giriyor ve tüm GPAI geliştiricileri, gönüllü Kodu imzalayıp imzalamadıklarına bakılmaksızın, bu yasaya uymak zorunda.

S: FLOP’un sistemik risk eşiği nedir?

A: 10²⁵ FLOP. Bu değerin üzerinde bir hesaplama gücüyle eğitilen modellerin, Kod kapsamındaki gelişmiş güvenlik standartlarını karşılaması beklenmektedir.

Bunun Anlamı

Avrupa Komisyonu’nun GPAI Kodu, dünyanın en güçlü yapay zeka sistemlerinin geliştiricilerini sorumlu davranışlar sergilemeye teşvik etmek üzere tasarlanmıştır. Bağlayıcı olmasa da, Kod, düzenleyici denetimleri ve gelecekteki uygulama önceliklerini etkileyebilecek beklentiler belirlemektedir. Meta’nın katılmayı reddetmesi, özellikle yapay zeka yönetişimi ve platform hesap verebilirliği konusunda, ABD’li teknoloji şirketleri ile Avrupa düzenleyicileri arasında artan sürtüşmeyi pekiştirmektedir.

yapay zeka Yasası’nın bağlayıcı gereklilikleri Ağustos ayında yürürlüğe girdiğinde, Meta ve diğer sağlayıcılar gönüllü taahhütlerden bağımsız olarak daha sıkı bir denetimle karşı karşıya kalacak. Gönüllü ve bağlayıcı kurallar konusundaki tartışma, daha derin bir hesaplaşmaya işaret ediyor: Denetimsiz bırakılamayacak kadar güçlü sistemlere kamuoyunun güvenini nasıl inşa edebiliriz? Sonuçlar kontrolün ötesine geçmeden önce.

Bir Yorum Yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Benzer Yazılar