AB Konseyi, üye ülkeler ile Avrupa Parlamentosu (AP) arasında müzakere edilen ve dünyada yapay zekaya yönelik ilk kapsamlı kuralları getirecek "Yapay Zeka Yasası" konusunda uzlaşı sağlandığını açıkladı.
Buna göre, Avrupa ülkelerinde kullanılacak yapay zeka sistemlerinin güvenli olması, temel haklara ve Birlik değerlerine saygılı göstermesi gerekecek.
Yapay zeka sistemleri topluma zarar verme ihtimaline göre "risk temelli" bir yaklaşımla düzenlenecek.
Yüksek riskli yapay zeka sistemlerine daha katı kurallar getirilecek. Yapay zekayı basit yazılım sistemlerinden ayıracak açık kriterler belirlenecek.
Yapay zekanın, hiçbir durumda üye ülkelerin ulusal güvenlik konusundaki yeterliliklerini veya bu alanda görevlendirilen herhangi bir kuruluşu etkilememesi sağlanacak.
Yapay zeka kanunu, yalnızca askeri veya savunma amaçlı kullanılan sistemler için geçerli olmayacak.
Sınırlı risk sunan yapay zeka sistemleri, kullanıcıların bilinçli kararlar alabilmesi için içeriğin yapay zeka tarafından oluşturulduğunu açık biçimde bildirecek. Bu sistemler, hafif şeffaflık yükümlülüklerine tabi tutulacak.
Çeşitli yüksek riskli yapay zeka sistemlerine izin verilecek. Ancak yüksek riskli yapay zeka sistemlerinin AB pazarına erişimi bir dizi kural ve yükümlülüğe tabi olacak.
Yapay zekanın bazı kullanımlarındaki risk kabul edilemez olarak değerlendirilecek ve bu sistemler AB'de yasaklanacak.
Bilişsel davranış manipülasyonu, yüz görüntülerinin internetten veya kapalı kamera sistem görüntülerinden hedefsiz alınması, iş yerinde ve eğitim kurumlarında duygu tanıma, sosyal puanlama, cinsel yönelim veya dini inançlar gibi hassas verileri çıkarmak için biyometrik sınıflandırma yapılması yasak kapsamına girecek.
Kolluk kuvvetleri faaliyetlerinde yapay zekayı kullanabilecek. Kolluk kuvvetleri, acil durum prosedürü ile normalde uygunluk değerlendirme prosedürünü geçemeyen yüksek riskli bir yapay zeka aracını devreye sokabilecek.
Emniyet birimleri istisnai ve gerekli durumlarda, kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama sistemlerini izin alarak kullanabilecek.
Bu tür yapay zeka sistemleri kullanımı terör saldırıları, mevcut veya öngörülebilir tehditlerin önlenmesi ve en ciddi suçlardan şüphelenilen kişilerin aranması gibi durumlarla sınırlı olacak.
Bununla birlikte, yapay zeka sistemlerinin olası suiistimallerine karşı temel hakların yeterince korunmasını sağlamak için özel bir mekanizma uygulamaya konulacak.
Video, metin, görüntü oluşturma, başka dilde konuşma, hesaplama veya bilgisayar kodu yazma gibi çok çeşitli farklı görevleri yerine getirebilen büyük sistemlere özel kurallar getirilecek. Söz konusu genel amaçlı yapay zeka sistemlerinin piyasaya sürülmeden önce çeşitli şeffaflık yükümlülüklere uyması sağlanacak.
Yapay Zeka Ofisi kuruluyorAB Komisyonu bünyesinde, gelişmiş yapay zeka modellerini denetlemek, standartların ve test uygulamalarını geliştirmeye katkıda bulunmak ve bütün üye ülkelerde ortak kuralları uygulamakla görevli bir "Yapay Zeka Ofisi" kurulacak.
Bağımsız uzmanlardan oluşan bilimsel bir panel, Yapay Zeka Ofisine tavsiyelerde bulunacak.Üye ülkelerin temsilcilerinden oluşacak olan Yapay Zeka Kurulu, Komisyon için bir koordinasyon platformu ve danışma organı olarak çalışacak.
Yapay zeka kanununun ihlaline ilişkin para cezaları, suçu işleyen şirketin bir önceki mali yıldaki küresel yıllık cirosunun yüzdesine veya önceden belirlenen miktarlara göre yüksek olan baz alınarak hesaplanacak.
Yasaklı yapay zeka uygulamalarının ihlali durumunda şirket cirosunun yüzde 7'si veya 35 milyon avro, yükümlülüklere uymama durumunda cirosunun yüzde 3'ü veya 15 milyon avro, hatalı veri paylaşılması durumunda da cirosunun yüzde 1,5'i veya 7,5 milyon avro para cezası kesilecek. Ceza kesilirken şirkete maliyeti yüksek olan değer kullanılacak.
AB ülkeleri ve AP tarafından resmen onaylanmasının ardından yürürlüğe girecek yasanın uygulamasına resmi onayın 2 yıl sonrasında başlanacak.
AB Komisyonu 2 yıl önce yapay zeka konusunda yeni kurallar çerçevesini içeren ilk yasal düzenleme teklifini hazırlayıp üye ülkelere ve AP'ye sunmuştu.
Bu teklif, yapay zeka sistemlerinin kullanımında birtakım sınırlama ve şeffaflık kuralları getiriyordu. Komisyonun yasa teklifinde, yapay zeka sistemleri kabul edilemez risk, yüksek risk, sınırlı risk ve minimum risk olmak üzere 4 ana gruba ayrılıyordu.
Yeni yasa ile birlikte Google'ın yapay zeka modeli Gemini ve ChatGPT gibi çeşitli yapay zeka teknolojilerinin yeni kurallara uyması gerekecek.