Avrupa Birliği Güvenilir Yapay Zeka İlkeleri Işığında Yapay Zekâ Etiği

Yazar: Av. Murat Osman KANDIR / Bilgisayar Yüksek Mühendisi

1.Giriş

Günümüzde yapay zeka teknolojisinin hızla gelişmesi, bir dizi etik, hukuki ve toplumsal sorunu beraberinde getirmiştir. Bu sorunlara çözüm arayışında olan Avrupa Birliği (AB), güvenilir yapay zeka kullanımını teşvik etmek ve riskleri en aza indirmek amacıyla bir dizi ilkeyi benimsemektedir. AB’nin güvenilir yapay zeka ilkeleri, insan odaklı, şeffaf ve etik bir yaklaşımı temsil etmektedir. Her geçen gün artan bir kullanıma sahip olan yapay zeka teknolojilerinin kontrol dışı kullanımına engel olmak ve muhtemel zararları engellemek ümidiyle ilkeler oluşturma çabaları tüm dünyada devam etmektedir. AB tarafından benimsenen bu ilkeler, Avrupa Birliği’nin yapay zeka teknolojisinin etik ve güvenilir bir şekilde gelişmesini sağlama konusundaki taahhüdünü yansıtmaktadır. AB, bu ilkeler doğrultusunda yapay zeka düzenlemelerini güncellemekte ve teknolojinin sürdürülebilir bir şekilde kullanılmasını sağlamaya çalışmaktadır.

2.Avrupa Birliği Güvenilir Yapay Zekâ İlkeleri

Avrupa Birliği’nin (AB) yapay zeka konusundaki bakışı, teknolojinin etik, güvenilir ve insan merkezli bir şekilde geliştirilmesine odaklanan bir yaklaşımı içermektedir. Bu bakış açısı, Yapay Zeka: Avrupa için Strateji belgesinde ve diğer ilgili belgelerde ortaya konmuştur. İşte AB’nin güvenilir yapay zeka ilkeleri;

a. İnsan Odaklılık: AB’nin en temel ilkelerinden biri, yapay zekanın insan haklarına ve temel özgürlüklere saygılı olması gerektiğidir. Bu ilke, yapay zekanın toplumun refahını artırmak ve insan yaşam kalitesini yükseltmek için kullanılmasını vurgular. Yapay zekanın insan merkezli olması, teknolojinin insanları desteklemesi ve geliştirmesi anlamına gelir.

b.Güvenlik ve Güvenilirlik: Güvenilir yapay zeka, hem teknik hem de etik açıdan güvenlik prensiplerine uygun olmalıdır. AB, yapay zeka sistemlerinin güvenilirliğini sağlamak için standartlar ve sertifikasyon süreçleri gibi araçları kullanarak, kullanıcı güvenini artırmayı hedeflemektedir. Bu sayede, yapay zeka teknolojisinin günlük yaşamımıza entegre edilmesi daha sorunsuz bir şekilde gerçekleşebilir.

c.Şeffaflık: Yapay zeka sistemlerinin karar alma süreçleri şeffaf olmalıdır. Kullanıcıların ve etkilenen bireylerin, algoritmik kararların nasıl oluşturulduğunu anlamaları önemlidir. Şeffaflık ilkesi, toplumun yapay zeka sistemleri hakkında güven duymasını ve kabul etmesini sağlamak amacı taşır.

d. Hesap Verebilirlik: Yapay zeka geliştiricileri ve kullanıcıları, teknolojinin etkilerine karşı sorumluluk taşımalıdır. Bu ilke, yapay zeka sistemlerinin olası hatalarının düzeltilmesi ve kullanıcıların haklarının korunması için bir çerçeve oluşturur. Hesap verebilirlik, yapay zekanın toplumsal sorumluluğunu vurgular.

e.Çeşitlilik ve İncelik: AB, yapay zeka geliştirme süreçlerinde çeşitliliği ve toplumsal farklılıkları göz önünde bulundurmayı teşvik eder. Bu, yapay zeka sistemlerinin adil ve kapsayıcı olmasını sağlamak amacını taşır. Çeşitlilik ilkesi, toplumun geniş bir kesimini temsil eden yapay zeka sistemlerinin daha etik ve adil olmasına yardımcı olur.

f. Çevresel ve Sosyal Sorumluluk: AB, yapay zeka kullanımının çevresel ve sosyal etkilerini değerlendirmeyi hedefler. Sürdürülebilirlik ilkesi, yapay zekanın çevresel etkilerini en aza indirmeyi ve toplumsal fayda sağlamayı amaçlar.

g.Kişisel Veri Koruma: AB, yapay zeka sistemlerinin kişisel verilere uygun bir şekilde erişmesini ve bunları korumasını önemser. GDPR (General Data Protection Regulation) gibi mevcut veri koruma düzenlemelerine uygunluğu vurgular.

3. Yapay Zekanın Etik Durumuyla İlgili Konular

Yapay zeka sistemleri giderek daha karmaşık hale geldikçe ve hayatımızın çeşitli yönlerine entegre edildikçe, bu teknolojilerin insan değerleriyle uyumlu olmasını, temel haklara saygı duymasını ve olumsuz toplumsal etkilerden kaçınmasını sağlamada etik hususlar hayati önem taşımaktadır. Bu konudaki etik tartışmalar, yapay zeka içeren yazılımların ve sistemlerin nasıl programlandığı, kararlar aldığı, insanlarla etkileşime geçtiği ve toplum üzerindeki potansiyel etkileri gibi birçok faktöre odaklanmaktadır. İşte yapay zekanın etik durumuyla ilgili bazı temel konular:

a.Karar Alma ve Şeffaflık: Yapay zeka sistemleri, karmaşık algoritmalar üzerinden kararlar alabilir ve bu kararlar genellikle insanlar tarafından anlaşılması zor olabilir. Şeffaflık eksikliği, sitemlerin aldığı kararların izlenememesi ve anlaşılamaması sorunlarına yol açabilir.

b.Ahlaki Kararlar: Yapay zeka Sistemlerinin ahlaki kararlar alabilmesi, özellikle etik değerlerin ve normların belirsiz veya çeşitli olduğu durumlarda sorunlara neden olabilir. Kimin belirlediği ahlaki normlara göre programlandığı ve hangi etik değerleri temsil ettiği önemli bir tartışma konusudur.

c.Veri Gizliliği ve Güvenlik: Yapay zeka sistemlerinin büyük miktarda veri işlemesi, veri gizliliği ve güvenliği konularını ortaya çıkarır. Kişisel bilgilerin güvenliği ve mahremiyeti konusundaki endişeler, yapay zeka uygulamalarının etik durumunu etkileyebilir.

d.Eşitsizlik ve Önyargı: Yapay zeka sistemleri, eğitildikleri veri setlerindeki önyargıları öğrenebilir ve bu durum, makinelerin ayrımcılık yapma riskini taşır. Bu durum, eşitsizlikleri artırabilir ve toplumsal adaletle ilgili etik endişelere yol açabilir.

e.İnsan-Makine Etkileşimi ve İnsan Hakları: Yapay Zeka içeren uygulamaların insanlarla etkileşimde bulunduğu durumlar, etik sorumlulukları ve insan hakları konularını gündeme getirir. Özellikle sağlık, güvenlik ve adalet gibi kritik alanlarda kullanılan yapay zeka sistemleri, bu bağlamda özel bir dikkat gerektirir.

f.Otonomi ve Sorumluluk: Otonom sistemlerin (kendi kendine karar verebilen sistemlerin) kullanımı, sorumluluk konularını karmaşıklaştırabilir. Bir otonom sistemin hatalı bir karar alması durumunda, kimin sorumlu olduğu ve kimin hesap vermesi gerektiği belirsizlik arz edebilir.

g.Etik İstismar ve Güvenlik Tehditleri: Yapay zeka ve otomasyonun gelişmesi, etik dışı amaçlarla kullanılabilecek yeni güvenlik tehditlerini de beraberinde getirebilir. Bu, etik istismar ve kötü niyetli kullanım gibi sorunları içerebilir.

Yapay Zeka Sistemlerinin etik durumuyla ilgili bu konular, yapay zeka ve otomasyon teknolojilerinin etik standartlarını belirleme ve uygulama sürecinde ele alınması gereken önemli meselelerdir. Etik ilkelere dayalı bir yaklaşım benimsemek, makinelerin topluma en iyi şekilde hizmet etmesini ve olası risklerin en aza indirilmesini amaçlar. Bu bağlamda, etik normları belirleme ve uygulama sürecinde çok taraflı bir yaklaşım benimsemek önemlidir.

4.Yapay Zeka ve Etik

AB yapay zeka ilkeleri ve yapay zekanın etik durumuyla ilgili mevcut konuları açıkladıktan sonra tüm bu bilgiler ışığında bir yapay zeka etik değerlendirmesi yapmak daha faydalı olacaktır. AB yapay zeka ilkeleri incelendiğinde insanı koruma duygusu ve yapay zekayı anlayabilme çabası olduğu görülecektir. Bilimkurgu edebiyatının öncülerinden olan Isaac Asimov’un 1942 yılında yayımlanan “Durağan Döngü” isimli hikâyesinde robotlara yönelik ortaya attığı üç yasa vardır. Asimov bu hikayesini daha sonra Ben Robot isimli kitabına bir bölüm olarak almıştır. Asimov’un üç yasası şöyledir:

  • Bir robot, bir insana zarar veremez ya da zarar görmesine seyirci kalamaz.
  • Bir robot, birinci kuralla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
  • Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumak zorundadır.

Bilimkurgu edebiyatında yer alan robotların kendi sahip oldukları yapay zeka ile hareket ettiklerinden bahisle burada ortaya çıkan mesele de aynıdır. Önce insan düşüncesi. Tüm teknolojik gelişmelerin insana hizmet etmesi gerektiği düşüncesi ilkelerin başlangıcında yer almaktadır. Daha sonra ise yapay zekanın anlaşılabilirliği düşüncesi yer almaktadır. İnsan anlamadığı her şeye karşı şüphe ile yaklaşmaktadır. Yapay zekanın ise tam merkezinde bir kara kutu bulunmaktadır. Buradaki kara kutu benzetmesinin temelinde ise bu alandaki işlemlerin şeffaf olmaması ve çok fazla matematik içermesidir.

Hesap verebilir bir yapay zeka beklentisi de en önemli ilkelerden birisi olarak üzerinde konuşulması gereken bir diğer etik alanıdır. Tüm dünyadaki hukuk sitemlerinde sorumluluk temelli bir kurgu yer almaktadır. Gerçek veya tüzel olmak üzere sonuçta mutlaka kişi muhatap alınır. Eğer kim sorusunun cevabı yoksa tam da o anda çözümsüzlük başlamaktadır. Meydana gelen bir olay sonrasındaki hukuki meselenin bir sorumlusu veya bir karşı tarafı olmalıdır. Bu durumda bir makineyi veya bir yazılımı bu pozisyona koymak hukuk alanında pek de mümkün olabilecek bir şey değildir. İşte bu tür alanlarda ilkeler belirlenirken aynı zamanda tartışma alanları da oluşmaktadır. Belki de gelecekte sadece yapay zeka içeren sistemlerdeki sorumluyu belirleyebilmek için yeni uzmanlık alanları ortaya çıkmak zorunda kalacaktır.

Yapay zekanın en temel ihtiyacı olan verinin güvenliği konusu da bir diğer ilke ile çözüme ulaştırılmaya çalışılmıştır. Büyük veri kavramının ortaya çıkmasından sonra veri güvenliği çok daha önemli bir sorun haline gelmiştir. Verinin ilk kez oluşturulmasından tüm işlemler sonrasında yok edilmesine kadar olan süreçte güvenlik en önemli husustur. Bu kapsamda uluslararası standartların kullanılması gibi çözüm yöntemleri de ilkeler ile önerilmektedir. İnsanların yapay zeka sistemlerine güven duyması gerekir. Aksi halde bu sistemlerin kullanılmasına sıcak bakmayacakları ve etik bulmayacakları düşünülmektedir.

Son zamanlarda artan kişisel verilerin güvenliği ihtiyacı özellikle kişisel verileri kullanan yapay zeka sistemlerine karşı daha dikkatli bir yaklaşım sergilenmesine neden olmuştur. Avrupa Birliğinin kişisel veriler ile ilgili yasal düzenlemesi olan GDPR (Genel Veri Koruma Tüzüğü) bu kapsamda oldukça önem taşıyan bir yasal düzenleme olmuştur. Geçtiğimiz günlerde bu kapsamda bir yapay zeka yasa tasarısı Avrupa Parlamentosunda geçici bir kabul almıştır. Bu yasa tasarısı incelendiğinde temelde Kişisel Verilerin güvenliği endişelerine karşı birtakım önlemlerin olduğu görülmektedir. Yapay zeka için hazırlanan yasalarda en başta Kişisel verilerin güvenliği konusunun olduğu ve en büyük endişenin de bu alnda olduğu görülmektedir.

Özellikle yapay zeka içeren yazılımların adalet sisteminde kullanıldığı örneklerden de görüldüğü üzere eşitlik ve sosyal çevre üzerinde meydana getirdiği etkiler etik tartışmaların tam odağında yer almaktadır. Adalet sisteminde en çok örnek verilen uygulama olan COMPASS isimli uygulama da beyaz insanların kayırıldığı ve tüm vatandaşlara eşit davranılmadığı düşüncesi etik tartışmaları da beraberinde getirmiştir. Ancak unutulan gerçek ise bu yazılımın bir insan tarafından yapıldığı ve bu uygulamanın da o insanın insani zaaflarından dolayı başarısız olduğudur.

5.Sonuç

Etik konusu sadece yazılımlar için değil tüm alanlarda elzem bir ihtiyaçtır. Ahlak ile etik kavramlarının en büyük farkı etik kavramının evrensel kurallar bütünü olmasıdır. Kültürden kültüre değişmeyen her ortamda geçerliliğini koruyan kurallara sahip olmasıdır. İşte bu noktada Yapay Zeka gibi insan tarafından yaratılan bir kavramın kendine özel bir etik kurallara sahip olup olamayacağıdır. Bir çok defa yapay zekanın bir yazılımlar bütünü olduğu ve onu gerçekleştiren yazılımcıların etiğine sahip olacağı konusu tartışılmıştır. Burada konuşulması gereken yapay zekanın kodlanmasından eğitilmesine, uygulamaya geçirilmesinden kara vermesine kadar olan tüm süreçlerde görev alan kişilerin etik kurallara uyması olmalıdır. Aksi taktirde kendi diktiğimiz bir ağacın farklı meyve vermesini beklemek gibi bir imkânsız bir beklenti içerisinde olduğumuz gerçeğiyle yüzleşmemiz gerekmektedir.

Etik kurallara uygun yapay zeka ürünleri görmek istiyorsak, tasarımcısından yazılımcısına, eğitim seti oluşturan veri analizcisinden sistemin kullanıcısına kadar tüm aktörlerin etik kurallar çerçevesinde hareket etmesini sağlamalıyız. Kısaca; önce biz yapay zekanın etik olmasını gerçekten istemeliyiz.

Yazarın tüm Blog yazılarını okumak için bağlantıya tıklayınız.

Yazarın 9. Sayı’mızda yayınlanan “Yapay Zeka ve Geleceğin Mahkemeleri” isimli yazısını bağlantıdan okuyabilirsiniz.

Yazar: Av. Murat Osman KANDIR / Bilgisayar Yüksek Mühendisi