Etik
9 Oca 2025
Yapay zeka teknolojileri, toplumların her alanlarına etki eden bir teknoloji olmaya devam ediyor. Sağlık, ulaşım ve kamu hizmetleri gibi kritik alanlarda elbette dahil olmaya başlayan yapay zeka, sistemlerin yaygın kullanımıyla beraberinde önemli riskleri getiriyor. Avrupa Birliği ise bu riski kontrol edebilmek için 2024/1689 sayılı Yapay Zeka Tüzüğü (AI Act)’nü yayınladı. Yüksek riskli yapay zeka sistemlerinin tanımlanması ve düzenlenmesi için kapsamlı bir dayanak sağlandı. İnsan hakları ve toplum refahını korumayı amaç edinmiş bu yazı yapay zeka denetimleri için önemli bir adım diyebiliriz.
Yüksek riskli yapay zeka sistemleri; ciddi sorunlar yaratabilecek insanların temel hakları, sağlık veya güvenlik gibi konularda risk bulunduran teknolojilerdir. Örnek olarak sağlık teşhis sistemleri, otonom ulaşım araçları ve kamu güvenliğini artırmayı amaçlayan gözetim teknolojileri, bu kategoriye girer. Bu örneklerin hata yaptığında nasıl sonuçlar doğurabileceğini tahmin edebiliyoruz. Bir sağlık sisteminin yanlış teşhisi veya otonom bir aracın kazaya sebebiyet vermesi onları yüksek riskli sistemler arasına sokuyor.
AI Act kapsamında, yüksek riskli sistemlerin kullanımına ilişkin sıkı denetim mekanizmaları belirlenmiştir. Bu sistemler için şeffaflık, açıklanabilirlik ve uygunluk değerlendirmesi gibi kriterler zorunludur. Özellikle, kullanım öncesi üçüncü taraf uygunluk değerlendirmelerinin yapılması ve sistemlerin yaşam döngüsü boyunca izlenmesi gerektiği belirtilmiştir çünkü bir yapay zeka her sürecinde olmasa bile bazı süreçlerinde riskli sonuçlar doğurabilir. Operatörler, kullandıkları yapay zeka sistemlerinin insan haklarına uygun ve güvenli olduğundan emin olmakla yükümlüdür.
Yüksek riskli YZ sistemlerinin etkileri, kullanım alanlarına göre çeşitlenir:
Sağlık: Hastalık teşhisinde doğruluk oranlarını artırabilirken, yanlış teşhis durumlarında ciddi sonuçlar doğurabilir.
Kamu Hizmetleri: Kamu kaynaklarının daha verimli yönetilmesini sağlarken, bireylerin mahremiyetine yönelik tehditler içerebilir.
Ulaşım: Otonom araçlar trafik kazalarını büyük ölçüde azaltabilse de kazalar meydana geldiğinde teknolojideki bir arıza nedeniyle çok daha ciddi hasara yol açma olasılığı yüksektir.
Şeffaflık, elbette, yüksek riskli AI sistemlerinin gözetiminde merkezi bir unsurdur. Verilerin nasıl işlendiğini bilmek ve algoritmanın bir açıklamasını almak, kullanıcılar arasında güven oluşturur. Ancak bu yeterli değildir; değerlendirmelerin yapılabilmesi için düzenli denetimler ve yayınlanmış raporlar da olmalıdır. Teknolojinin etik bir şekilde kullanılmasını sağlamak için insan gözetimi, böylece zarar risklerini en aza indirir.
Yüksek riskli AI sistemi düzenlemesi, inovasyon ile güvenlik arasındadır. AI Yasası, Avrupa Birliği'nde olduğu gibi bu dengeyi destekler, bireylerin haklarını korur ve teknolojik ilerlemeyi teşvik eder. Düzenlemelerdeki düzenli güncellemeler, sürekli olarak yeni teknolojilerle dolu olan AI alanındaki değişiklikler nedeniyle uzun süredir devam etmektedir.