Yüz tanıma analizine yasak

Avrupa Birliği, yapay zekâ teknolojilerini denetime almak için ayrıntılı bir düzenleme hazırladı. 'AI Act' kapsamında yüz tanıma ve duygu analizi sistemleri yasaklanırken, yüksek riskli algoritmalar için şeffaflığın yanısıra insan denetimi zorunluluğu getiriliyor. Yeni kurallar, küresel ekosistemle birlikte Türkiye’deki yapay zekâ geliştiricilerini de doğrudan etkileyecek.



Avrupa Birliği, yapay zekâ teknolojilerini denetime almak için ayrıntılı bir düzenleme hazırladı. 'AI Act' kapsamında yüz tanıma ve duygu analizi sistemleri yasaklanırken, yüksek riskli algoritmalar için şeffaflığın yanısıra insan denetimi zorunluluğu getiriliyor. Yeni kurallar, küresel ekosistemle birlikte Türkiye’deki yapay zekâ geliştiricilerini de doğrudan etkileyecek.

MAHREMİYET İHLALİNE KARŞI SIKI TEDBİRLER

 Tüzüğün en dikkat çekici maddelerinden biri, yüz tanıma ve duygu analizi sistemlerinin yasaklanması. Kamu alanlarında bireylerin yüz ifadelerini analiz ederek duygu tespiti yapan ya da kimlik belirleyen sistemler, "kabul edilemez risk" grubunda yer alacak. Bu tür teknolojilerin mahremiyet ihlali ve yanlış sınıflandırma riski taşıdığı gerekçesiyle kullanımı Avrupa genelinde yasaklanıyor. 

Ayrıca işe alma, kredi değerlendirmesi veya sağlık teşhisi gibi "yüksek riskli" alanlarda kullanılan yapay zekâların, insan gözetimi ve sertifikasyon süreçlerinden geçmesi zorunlu olacak. 

DEEPFAKE İÇİN ETİKET ZORUNLULUĞU 

Yeni düzenleme, yapay zekâ geliştiricilerine veri şeffaflığı yükümlülüğü de getiriyor. Şirketler, sistemlerini eğitirken kullandıkları veri setlerinin kaynağını ve önyargı risklerini açıklamak zorunda olacak. Özellikle büyük dil modelleri ve görsel üretim sistemleri, eğitim verilerinin içeriğini ve kapsamını belgelemekle yükümlü tutulacak. Bunun yanı sıra, deepfake içerik üreten yapay zekâ sistemlerinde de "yapay üretim" etiketi zorunluluğu getiriliyor.

Yorumlar

Yayımlanabilmesi için yorumların yönetici tarafından incelenmesi gerekmektedir *

أحدث أقدم