Yapay Zeka Regülasyonu

1. GİRİŞ

Yapay zekâ, küresel çapta insanlığa birçok açıdan muazzam ölçüde olumlu katkılar sunma potansiyeline sahiptir. Diğer taraftan, bu teknolojinin duyguya, ahlâka ve öz farkındalığa sahip olmaması nedeniyle; insanlığın etik değerleriyle çatışacak şekilde insanlığa zarar verme riski de mevcuttur. Dolayısıyla, yapay zekâ teknolojisinin olumlu etkilerinden azami düzey faydalanılarak ve yaratabileceği tehlikeleri asgari seviyelere çekmeyi temin edebilecek bir ekosistemin yaratılması önem arz etmektedir.

Bu yazı kapsamında, “yapay zekâ etiği” konusu irdelenerek, yapay zekâ teknolojisinin kamu yararına fayda sağlayacak şekilde gelişmesi amacıyla bu alanda regülasyonun neden gerekli olduğu ile buna dair bir takım ilkeler ve değerlendirmeler ortaya konulmaya çalışılmıştır.

2. YAPAY ZEKÂ KAVRAMI

Yapay zekâ, akıllı makineler oluşturmanın genel bir disiplinidir. Kaynağı veridir ve verilerden çıkarımda bulunur.

Yapay zekâ “kesin değildir”, “dinamiktir”, “tahmin edilemez” ve “öğrenme” yeteneğine sahiptir. Yapay zekâ verileri tüketerek ve ardından verilere dayalı olarak gözlemler ve sonuçlar çıkararak öğrenmektedir. Geleneksel sistemler kesin girdiler ve çıktılar gerektirirken; kesin olmayan işleve sahip yapay zekâ, buna ihtiyaç duymamaktadır. Aynı şekilde, yapay zekâ, değişen koşullara yanıt olarak geliştiği için dinamik olarak kabul edilmektedir. Tahmin edilemez, çünkü insanlar için yeni olan çözümleri belirleyebilmektedir[1].

Yapay zekâ, ortak değerlere sahip değildir. Neyi bilmediğini bilmemektedir. İnsanlar için bariz hatalar olabilecek şeyleri belirleyemez ve bunlardan kaçınamaz. Sonuçlar çıkarabilse, tahminlerde bulunabilse ve kararlar alabilse de; öz farkındalığa, yani dünyadaki rolü üzerine düşünme yeteneğine sahip değildir. Niyeti, motivasyonu, ahlâkı veya duygusu yoktur. Her ne kadar bu nitelikler olmasa da, atanan hedeflere ulaşmak için farklı ve amaçlanmayan araçlar geliştirmesi muhtemeldir.

          Yapay zekâ; belirtilen amaç işlevleri ne olursa olsun, yerine getirmek için kendi yaklaşımlarını geliştirebilmektedir. Karakteristik olarak insana ait olmayan ve ulusal veya kurumsal kültürlerden büyük ölçüde bağımsız olan sonuçlar ve cevaplar üretebilmektedir.

3. YAPAY ZEKA ETİĞİ

Yapay zekâ güçlü bir teknolojidir ve bu nedenle ölümcül otonom silahlar, güvenlik ve mahremiyet ihlalleri, istenmeyen yan etkiler, kasıtsız hatalar veya kötü niyetli kullanım yoluyla potansiyel tehlikeler oluşturur ve bunun doğurduğu etik sorumluluk mevcuttur.

3.1. Güvenlik

Çağımızda, siber ve yapay zekâ yeteneklerinin ortaya çıkışı ile güvenlik hesaplamalarına olağanüstü yeni karmaşıklık ve soyutlama düzeyleri eklenmiştir. Sofistike bir yapay zekâ oluşturmak, önemli miktarda bilgi işlem gücü gerektirse de; yapay zekâyı çoğaltmak veya çalıştırmak genellikle bu kadar zor olmamaktadır.

3.1.1. Öldürücü Otonom Silahlar

Öldürücü bir otonom silah; Birleşmiş Milletler (BM) tarafından, insan gözetimi olmadan insan hedefleri bulan, seçen ve öldüren bir silah olarak tanımlanmaktadır. 2014’ten bu yana Cenevre’deki BM ofisinde, ölümcül otonom silahların yasaklanıp yasaklanmaması gerektiği konusunda, “Belirli Konvansiyonel Silahlara İlişkin Sözleşme (the Convention on Certain Conventional Weapons–CCW)” himayesinde düzenli tartışmalar yürütülmektedir. Otonom silahların yasal statüsü çerçevesinde; savaşanlarla savaşmayanlar arasında ayrım yapma olanağı, bir saldırı için askeri gereklilik yargısı ve bir hedefin askeri değeri ile tali hasar olasılığı arasındaki orantılılığın değerlendirilmesi gibi kriterler ön plana çıkmaktadır. Bu kriterleri karşılamanın uygun olup olmaması, zamanla değişecek olan bir mühendislik sorunudur. Güncel olarak, bahsi geçen kriterler kapsamında ayırt edebilme; bazı durumlarda mümkün görünmektedir ve hızla gelişecektir. Ancak gereklilik ve orantılılık hâlihazırda mümkün değildir. Zira makinelerin, potansiyel hedefleri arama ve bunlarla bağlantı kurma gibi nispeten basit görevlerden çok daha zor olan öznel ve durumsal kararlar vermesi gerekmektedir. Bu nedenlerden dolayı, otonom silahların kullanılması, yalnızca bir insan operatör tarafından görevin yerine getirilmesinin, sivillerin hedef alınmasına veya silahların gereksiz ya da orantısız saldırılar gerçekleştirmesine neden olmayacağını makul bir şekilde tahmin etmesi durumunda yasal olması uygun olacaktır. Bu, şimdilik, otonom silahlarla yalnızca çok sınırlı görevlerin üstlenilebileceği anlamına gelmektedir[2]. Bir başka deyişle; hâlihazırda yapay zekâ destekli silahlarda insan otonomisinin tesis edilmesi, kritik bir unsurdur.

3.1.2. Kitle İmha Silahına Çevrilebilme Kapasitesi

Otonom silahlarla ilgili en önemli pratik sorun; başlatılabilecek bir saldırının ölçeğinin, konuşlandırılabilecek donanım miktarıyla orantılı olması anlamında, ölçeklenebilir kitle imha silahları olmalarıdır. Çapı iki inç olan bir dört pervaneli drone, ölümcül bir patlayıcı yükü taşıyabilir ve bu şekilde normal bir nakliye konteynerine bir milyonu sığabilmektedir. Tam olarak özerk oldukları için, bu silahların işlerini yapmak için bir milyon insan denetçiye ihtiyacı bulunmamaktadır[3].

3.1.3. Siber Güvenlik

Siber silahlar, gücünün önemli bir kısmını şeffaf olmayışından almaktadır. Siber silahlar ayrıca çeşitli aktörler tarafından başka amaçlar için kullanılabilir, değiştirilebilir ve yeniden geliştirilebilir. Bu durum; belirli açılardan siber silahları, etkileri istenmeyen ve bilinmeyen yollarla yayılabilen biyolojik ve kimyasal silahlara benzetebilmektedir. Çoğu durumda, yalnızca bir savaş alanındaki belirli hedefleri değil, geniş toplum alanlarını etkilemektedir[4].

Gelişmiş ekonomiler, dijital komuta ve kontrol sistemlerini elektrik santrallerine ve elektrik şebekelerine entegre ettikçe, hükümet programlarını büyük hizmetlere ve bulut sistemlerine kaydırdıkça ve elektronik defterlere aktardıkça, siber saldırılara karşı savunmasızlıkları katlanarak artmaktadır. Başarılı bir saldırının büyük ölçüde yıkıcı olabilmesi için daha zengin bir hedef seti sunmaktadır[5].

Kurumların çoğu çevrimiçi faaliyet gösterdiğinden; toplum, siber suçlara (kimlik avı, kredi kartı dolandırıcılığı, bot ağları, fidye yazılımları) ve siber terörizme (hastaneleri ve enerji santrallerini kapatmak veya sürücüsüz arabalara el koymak gibi potansiyel olarak ölümcül saldırılar dâhil) karşı daha savunmasız hale gelmektedir. Makine öğrenimi, siber güvenlik savaşında her iki taraf için de güçlü bir araç olabilmektedir. Saldırganlar, güvensizlikleri araştırmak için otomasyonu kullanabilir ve kimlik avı girişimleri ve otomatik şantaj için takviyeli öğrenme uygulayabilmektedir. Savunmacılar, anormal gelen trafik modellerini tespit etmek için denetimsiz öğrenmeyi ve dolandırıcılığı tespit etmek için çeşitli makine öğrenimi tekniklerini kullanabilmektedir[6]. Siber uzayın geniş kapsamı ve içindeki neredeyse sonsuz olası eylem dizisi nedeniyle; yapay zekânın kullanımının, hayati siber savunma işlevlerini yerine getirebilmek için zorunlu olması kaçınılmaz olabilecektir.

3.1.4. Dezenformasyon

Üretken yapay zekâ (generative AI), çok miktarda yanlış ama makul bilgi oluşturabilir. Yapay olarak yaratılmış kişilikler, resimler, videolar ve konuşmaların kullanımı da dahil olmak üzere; yapay zekânın kolaylaştırdığı dezenformasyon ve psikolojik savaş, dünya toplumlarında sarsıcı yeni güvenlik açıkları üretebilmektedir.

Birçok gelişmiş yapay zekâ uygulamaları ile savaş sırasında askeri liderlerin emirlerinin tahrif edilmesi, halk ve silahlı kuvvetler arasında kafa karışıklığı yaratarak, savaşlara ve ayaklanmalara meşruiyet kazandırmak dâhil olmak üzere; milli güvenliği ilgilendiren birçok psikolojik harp hamleleri yapılabilmesi mümkündür[7].

3.2. Özel Hayatın Gizliliği

Yapay zekânın veriye dayalı büyüme gerçeği göz önünde bulundurulduğunda; bu teknolojinin toplum hayatının büyük bir bölümüne sirayet etmesiyle, hukuk nezdinde özel hayatın gizliliği problemi de baş göstermeye başlamıştır. Ülkemizde 24/03/2016 tarihli ve 6698 sayılı Kişisel Verilerin Korunması Kanunu ile, kişisel verilerin işlenmesinde başta özel hayatın gizliliği olmak üzere, kişilerin temel hak ve özgürlüklerini korumak ve kişisel verileri işleyen gerçek ve tüzel kişilerin yükümlülükleri ile uyacakları usul ve esaslar düzenlenmiştir. Kişisel Verileri Koruma Kurumu tarafından yayımlanan “Yapay Zekâ Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler” adında bir belge de yayımlanmıştır[8].

Veri toplayıcılarının özel hayatın gizliliğini zedelemeden yapay zekânın kullanımına ilişkin kişisel veri toplamasına ilişkin bir takım teknik yöntemler mümkündür:

  • Kimlik Gizleme (De-identification): Veri kümesinin, kişisel olarak tanımlayıcı bilgileri (isim ve sosyal güvenlik numarası gibi) içermeden tutulması yönetimidir[9].
  • Toplu Sorgulama (Aggregate Querying): Bu yöntemle; tüm kayıtlar gizli tutularak, ancak toplu sorgulamaya izin verilmektir. Veri tabanına yönelik sorgular için bir uygulama programlama arayüzü sağlanır. Geçerli sorgular, verileri bir sayım veya ortalama ile özetleyen bir yanıt olarak döndürülmektedir[10].
  • Ayrıştırıcı Gizlilik (Differential Privacy): Bu yöntem ile saldırgan birden çok sorgu yapabilse ve ayrı bağlantı veri tabanlarına erişimi olsa bile, veri tabanındaki herhangi bir kişiyi yeniden tanımlamak için sorguları kullanmamaktadır. Zira sorgu yanıtı, sonuca az miktarda gürültü ekleyen rastgele bir algoritma kullanmaktadır[11].
  • Birleşik Öğrenme (Federated Learning): Bu yöntemde merkezi bir veri tabanı yoktur; bunun yerine kullanıcıların verileri, kendi yerel veri tabanlarında tutulmaktadır. Ancak verileriyle geliştirilmiş bir makine öğrenimi modelinin parametreleri, herhangi bir kişisel veriyi ifşa etme riski olmadan paylaşılabilmektedir[12].

3.3. Önyargı

Yapay zekâ; insan tutkularını, geleneksel propagandadan daha etkili bir şekilde kullanma yeteneğine sahiptir. Yapay zekâ aracılarının konuşlandırılması, teknik olarak insan kontrolü altında olsa bile, bireysel önyargıları artırabilmektedir[13].

Makine öğrenimi, önemli durumlarda insanın karar verme sürecini artırır ve bazen onun yerini alabilmektedir. Ancak makine öğrenimi modelleri, toplumsal önyargıyı (societal bias) sürdürebilmektedir. Örneğin sanıkların yeniden suç işleme olasılığının olup olmadığını tahmin eden bir algoritmanın eğitim veri seti, insan yargıçların ırksal veya toplumsal cinsiyet önyargılarını içerebilmektedir[14].

Toplumsal önyargının yokluğunda bile, örnek büyüklüğü eşitsizliği (sample size disparity), taraflı sonuçlara yol açabilmektedir. Çoğu eğitim veri setinde, azınlık sınıfındaki bireylere ait örnekler, çoğunluk sınıfındaki bireylere göre daha az olabilecektir. Makine öğrenimi algoritmaları, daha fazla eğitim verisiyle daha iyi doğruluk sağlar. Bu, azınlık sınıflarının üyelerinin daha düşük doğrulukla karşılaşacağı anlamına gelebilmektedir[15].

3.4. Güven

Bir yapay zekâ sisteminin doğru, adil ve güvenli hale getirmek bir zorluktur; toplumun buna ikna edilmesi ise farklı bir zorluktur. Yapay zekâ teknolojisinin gelişebilmesi için, toplumun bu tür sistemlere güvenebilmeleri gerekmektedir. 2017’de yapılan bir PwC anketi, işletmelerin %76’sının güvenilirlik endişeleri nedeniyle yapay zekâyı benimsemeyi yavaşlattığını ortaya koymuştur[16].

3.4.1. Doğrulama ve Onaylama (Verification And Validation–V&V)

Güven kazanmak için, tasarlanmış tüm sistemlerin bir doğrulama ve onaylamasürecinden geçmesi gerekmektedir. Doğrulama, ürünün şartları karşıladığı anlamına gelmektedir. Onaylama, şartların gerçekten kullanıcının ve diğer etkilenen tarafların ihtiyaçlarını karşılamasını sağlaması anlamına gelmektedir. Genel olarak mühendislik ve insan kodlayıcılar tarafından yapılan geleneksel yazılım geliştirme için ayrıntılı bir V&V metodolojisi mevcuttur ve bunların çoğu yapay zekâ sistemleri için de geçerlidir. Ancak makine öğrenimi sistemleri farklıdır ve henüz tam olarak geliştirilmemiş farklı bir V&V süreci gerektirmektedir. Yapay zekâ açısından şu hususların doğrulanması gerekir[17];

  • Sistemlerin öğrendiği veriler,
  • Kesin bir sonucu bilinmez kılan belirsizlik karşısında bile, sonuçların doğruluğu ve adilliği,
  • Hasımların, modeli gereksiz yere etkileyemeyeceği veya ortaya çıkan modeli sorgulayarak bilgi çalamayacağı.
3.4.2. Belgeleme

Bir güven aracı da sertifikadır. Örneğin, çok uzun yıllardır cihaz güvenliği sertifikasyonu yapan Underwriters Laboratories (UL) yapay zekâ için ürün testi ve sertifikasyonu planlamaktadır[18].

Diğer endüstriler uzun süredir güvenlik standartlarına sahiptir. Yapay zekâ ve otonom sistemler için etik tasarımı tanımlayan bir standart olan IEEE P7001 gibi bazı çerçeveler devam etse de, yapay zekâ endüstrisi henüz bu netlik düzeyinde değildir[19].

3.4.3. Şeffaflık

Güvenin bir başka yönü de şeffaflıktır. Tüketiciler şunları bilmek ister[20];

  • Bir sistemin içinde neler olup bittiği,
  • Sistemin herhangi bir nedenden (kasıtlı kötülük, kasıtsız bir sistem hatası veya sistem tarafından tekrarlanan yaygın toplumsal önyargı gibi)  onlara karşı çalışmadığı.

Bazı durumlarda bu şeffaflık doğrudan tüketiciye iletilir. Bilhassa fikri mülkiyetin söz konusu olduğu diğer durumlarda ise, sistemin bazı yönlerini tüketicilere karşı gizli tutulurken; bu yönler, düzenleyicilerin ve belgelendirme kuruluşlarının erişimine açık olur.

Şeffaflığın bir yönü, bir yapay zekâ sistemiyle mi yoksa bir insanla mı etkileşime girildiğinin bilinmesidir. Avustralyalı yapay zekâ profesörü Toby Walsh, “otonom bir sistemin, otonom bir sistem dışında herhangi bir şeyle karıştırılmayacak şekilde tasarlanmasının ve herhangi bir etkileşimin başlangıcında, kendini tanıtmasının” yasal olarak düzenlenmesini teklif etmiştir[21]. Benzer bir şekilde, 2019’da ABD’nin Kaliforniya eyaletinde; herhangi bir kişinin, diğer kişiyi yapay kimliği konusunda yanıltmak amacıyla, çevrimiçi iletişim veya etkileşim kurmak için bot kullanması yasaklanmıştır[22].

3.4.4. Açıklanabilirlik

Bir yapay zekâ sisteminin güven tesis edebilmesine yönelik araçlardan birisi de, sistemin vermiş olduğu bir karar hakkında (örneğin bir kredi başvurusunun reddi) açıklama yapabilmesidir ki; Avrupa Birliği nezdinde Genel Veri Koruma Düzenlemesi (General Data Protection Regulation–GDPR), bunu zorunlu kılmaktadır. Bu tür bir sisteme, açıklanabilir yapay zekâ (explainable AI–XAI) denir. İyi bir açıklamanın birkaç özelliği vardır[23];

  • Kullanıcı için anlaşılır ve ikna edici olmalıdır,
  • Sistemin mantığını doğru bir şekilde yansıtmalıdır,
  • Tamamlanmış olmalıdır,
  • Farklı koşullara veya farklı sonuçlara sahip farklı kullanıcıların farklı açıklamalar alması gerektiği konusunda net olmalıdır.

3.5. Yapay Zekâ Güvenliği

Bir faydayı azami seviyeye çıkartmak veya bir hedefe ulaşmak üzere tasarlanmış bir yapay zekâ ajanı, yanlış amaç fonksiyonuna sahipse; istenmeyen yan etkiler (unintended side effect) baş gösterebilir ve bu durum, onu güvensiz hale getirebilmektedir. Örneğin, bir robota mutfaktan kahve getirme görevinin verildiği varsayılsın. Robot hedefe ulaşmak için koşabilir, yol boyunca çeşitli eşyaları devirebilir/kırabilir. Test sırasında, bu tür bir davranışı fark edilebilirse; bu tür bir hasarı cezalandırmak için fayda fonksiyonu değiştirilebilir. Ancak tasarımcıların ve test uzmanlarının tüm olası yan etkileri önceden tahmin etmesi zordur[24].

İstenmeyen yan etkiyle başa çıkmanın bir yolu, düşük etkiye (low impact) sahip robot tasarlamaktır. Buradaki amaç yalnızca faydayı maksimize etmek yerine; faydayı, dünyanın durumundaki tüm değişikliklerin ağırlıklı bir özetini çıkararak maksimize etmektir. Böylelikle diğer her şey eşitken; robot, fayda üzerindeki etkisi bilinmeyen şeyleri değiştirmemeyi tercih etmektedir. Bu nedenle lambayı devirmenin, lambanın devrilmesine ve kırılmasına neden olacağını özellikle bildiği için değil; genel olarak bozulmanın kötü olabileceğini bildiği için lambayı devirmekten kaçınır[25].

Bazı durumlarda yapay zekâ ajanları, çözmeleri amaçlanan sorunları fiilen çözmeden; bilhassa sistem hatasını (bug) da suistimal ederek, fayda fonksiyonunu maksimize edecek şekilde işlem yapabilmektedir.

Yapay zekâ ile etik arasındaki ilişkide önemli hususlardan biri de, ne istenildiğinin dikkatli şekilde belirlenmesidir. Zira faydayı maksimize eden fonksiyonlarla gerçekten istenilen elde edilir. Bu kapsamda ön plana çıkan, gerçekten istenilen şeyin ne olup olmamasına yönelik olan değer uyumu sorunudur (value alignment problem).Bir fayda fonksiyonu, kabul edilebilir davranışla ilgili arka planda, toplumsal normları yakalamada başarısız olursa; ortaya ciddi sorunlar çıkabilmektedir. Örneğin, yerleri temizlemesi için tutulan bir kişinin, sürekli etrafı kirleten bir kişiyle karşılaştığında, o kişiden kibarca daha dikkatli olmasını istemesi kabul edilebilirken; uyarılması gereken kişinin kaçırılması veya etkisiz hale getirilmesi kabul edilemez[26].

3.6. Toplumun Entegrasyonu

Yapay zekâ tarafından veya yapay zekânın yardımıyla keşfedilen gerçeklik, insanların hayal ettiğinden farklı olabilir. Hiç fark edilmemiş veya kavramsallaştırılmamış kalıplara sahip olabilir. Yapay zekâ tarafından nüfuz edilenin temel yapısı, yalnızca insan dilinde ifade edilemez olabilir. Dönüşümlerin sonuçlarını açıklamak, yorumlamak ve organize etmek için yeni kavramlar geliştirmedikçe; onu veya sonuçlarını yönlendirmede hazırlıksız olunacaktır[27].

Toplumların, yapay zekâ ile etkileşime geçmek için entelektüel ve psikolojik altyapıyı oluşturması ve bu teknolojiyi, insanlara mümkün olduğunca çok fayda sağlayacak şekilde kullanması gerekmektedir. Teknoloji, siyasi ve sosyal hayatın pek çok alanında adaptasyonu zorunlu kılacaktır. İnsan özerkliğini sağlamak için; temel hükümet kararları, yapay zekâ ile aşılanmış yapılardan çıkarılmalı ve insan yönetimi ve gözetimi ile sınırlandırılmalıdır[28].

Bazı insanlar, özellikle yapay zekâdan anlayanlar, bu dünyayı anlaşılır bulabilir. Ancak sayıları daha fazla olan diğerleri; yapay zekânın yaptığı şeyi neden yaptığını anlamayabilir. Bunun sonucunda, özerklik duyguları ve dünyaya anlam atfetme yetenekleri zarar görebilir. Yapay zekânın uzun vadeli etkileri ne olursa olsun, kısa vadede teknoloji belirli ekonomik kesimleri, meslekleri ve kimlikleri kökten değiştirecektir. Toplumların; bundan etkilenmiş kişilere, yalnızca alternatif gelir kaynakları sağlamakla kalmayıp, aynı zamanda alternatif tatmin kaynakları sağlamaya da hazır olmaları gerekir[29].

4. Sonuç

Mevcut yapay zekâ uygulamaları daha kompakt, etkili, ucuz hale gelecek ve bu nedenle daha sık kullanılacaktır. Yapay zekâ hükümetlere ve ürünlere daha da entegre hale geldikçe; yapay zekâya erişim, neredeyse kaçınılmaz olacaktır.

Yapay zekâ teknolojisinin toplum hayatına olumlu yöndeki katkısı yadsınamaz bir gerçektir. Ancak özellikle otonom silahlar, kitle imha silahları, siber güvenlik, dezenformasyon, özel hayatın gizliliği, önyargıların güçlendirilmesi, bireylerin alışık olmadığı yapay zekâ gerçekliğiyle etkileşimi gibi konular başta olmak üzere; bu teknolojinin toplum hayatını tehdit eden çeşitli yönlerinin de bulunduğunun gözden kaçırılmaması gerekmektedir.  Ayrıca yapay zekânın; yaygınlık, görünmezlik ve bilinmezlikle vücut bulmuş gücü, özgür iradenin geleceği hakkında soru işaretleri uyandırabilecektir.

Yapay zekâ ile ilgili stratejik doktrinleri tanımlamak ve bu teknolojinin kamu yararını geliştirecek yönünü kısıtlamadan; fakat barındırdığı riski en aza indirgeyecek, insan etik değerleriyle standartların oluşturulmasını sağlayacak, bir hukuki düzenleme şarttır. Bu kapsamdaki çalışmaların, yapay zekânın getireceği dönüşümler kaçınılmaz bir noktaya ulaşmadan önce yapılması gerekmektedir. Zira yapay zekâya alıştıkça ve ona bağımlı hale geldikçe; onu kısıtlamak daha maliyetli, psikolojik açıdan zorlayıcı ve hatta teknik olarak daha karmaşık hale gelebilecektir. Bu regülasyonun oluşturulmasında üç önemli unsur olduğu değerlendirilmektedir:

1. Bu teknoloji toplumun çok farklı katmanlarına sirayet ettiğinden; felsefe, sosyoloji, psikoloji, güvenlik bürokrasisi, yapay zekâ endüstrisi bileşenleri gibi farklı sektörlerden katılımcıların bir araya gelerek oluşturacağı konsensüsle standartların geliştirilmesi gerekir. Bu bağlamda, yapay zekânın;

  • İnsan deneyimine getirdiği dönüşümleri,
  • İnsan kimliğine sunduğu zorlukları,
  • Bu gelişmelerin hangi yönlerinin diğer insan taahhütleri tarafından düzenleme ve dengeleme gerektirdiğini

anlamak önem arz etmektedir.

2. Standartların mahiyeti, yapay zekâ teknolojisinin gelişimine ket vuracak şekilde katı bir nitelikte olmasından ziyade; bu teknolojinin suiistimal edebileceği alanların net şekilde ortaya konulup, oluşturulacak sınır içinde bir serbesti barındırmasının gerektiği değerlendirilmektedir.

Ne yapay zekânın temel yeteneklerinin kısıtlanması, ne de sayılarının sınırlandırılması; teknolojinin yaygın sivil kullanımı ve sürekli gelişimi ile tam olarak uyumlu olmayacaktır. Yapay zekânın öğrenme ve hedefleme yeteneklerine odaklanarak ek kısıtlamaların incelenmesi gerekecektir.

Yapay zekâ teknolojisi neticesinde doğabilecek hukuki sorumluluk rejiminin net bir şekilde ortaya konulması gerekmektedir. Robotlar, hâlihazırda yönlendirildikleri görevleri yerine getirmekle sınırlı hareket alanına sahip araçlar olduğundan ve dolayısıyla bağımsız bir kişilik barındırmadığından, bu aşamada onlara tam sorumluluk yükleyecek şekilde robot hakları kavramı geliştirmenin uygun olmayacağı değerlendirilmektedir. Aksi takdirde, mülk sahipleri,  mülkünün eylemlerinin sorumluluğunu almayı reddetme ihtimali de doğacaktır.

3. Teknolojinin, küresel çapta hızla yayılma kabiliyeti bulunduğundan; bu kapsamdaki standartlara dair konsensüsün en geniş ölçekte uluslararası çapta temin edilmesi gerekmektedir. Zira bir ülke, sosyal sorumluluk kaygısıyla, yapay zekâ hususunda kendi sınırlarken, başka bir ülkenin bu konuda kendisini sınırlamaması; sınırlanmayan ülkenin orantısız bir şekilde bu konuda gelişmesine ve uluslararası ilişkilerdeki istikrarı tehdit etmesine yol açacaktır.

Av. Murat Osman KANDIR’ın 9. Sayı’mızda yayınlanan “Yapay Zeka ve Geleceğin Mahkemeleri” isimli yazısını bağlantıdan okuyabilirsiniz.

Yapay Zeka Hukuku alanındaki tüm Blog yazıları için bağlantıya tıklayınız.

Yazar: Murat Fevzi KIRAÇ

KAYNAKÇA

  • Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI and Our Human Future, Little, Brown and Company, 2021.
  • Stuart Russel ve Peter Norving. Artificial Intelligence: A Modern Approach, Pearson, 2021.
  • The United States of America Cyberspace Solarium Commission Final Report, 2020.
  • Daniel L. Byman, Chongyang Gao, Chris Meserole ve V. S. Subrahmanian, “Deepfakes and International Conflict”, Foreign Policy at Brookings (1/2023) (erişim 31.07.2023).

https://www.brookings.edu/wp-content/uploads/2023/01/FP_20230105_deepfakes_international_conflict.pdf

  • Kişisel Verileri Koruma Kurumu. “Kişisel Verileri Koruma Kurumu Yapay Zekâ Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler”, son güncelleme 31 Temmuz, 2023.

https://www.kvkk.gov.tr/Icerik/7048/Yapay-Zeka-Alaninda-Kisisel-Verilerin-Korunmasina-Dair-Tavsiyeler

  • Underwriters Laboratories. “UL Joins Leading Body on Artificial Intelligence”, son güncelleme 31 Temmuz, 2023.

https://www.ul.com/news/ul-joins-leading-body-artificial-intelligence

  • Vice. “AI Professor Proposes ‘Turing Red Flag Law’” son güncelleme 31 Temmuz, 2023.

https://www.vice.com/en/article/53dywx/ai-professor-proposes-turing-red-flag-law


[1] Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI and Our Human Future, Little, Brown and Company, 2021, s.57.

[2] Stuart Russel ve Peter Norving. Artificial Intelligence: A Modern Approach, Pearson, 2021, s.1039.

[3] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1040.

[4] The United States of America Cyberspace Solarium Commission Final Report, 2020, (Bkz. NotPetya saldırısı), s.8.

[5] Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI, s.154.

[6] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1041.

[7] Daniel L. Byman, Chongyang Gao, Chris Meserole ve V. S. Subrahmanian, “Deepfakes and International Conflict”, Foreign Policy at Brookings (1/2023), s.7. (erişim 31.07.2023).

[8] Kişisel Verileri Koruma Kurumu. “Kişisel Verileri Koruma Kurumu Yapay Zekâ Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler”, son güncelleme 31 Temmuz, 2023.

https://www.kvkk.gov.tr/Icerik/7048/Yapay-Zeka-Alaninda-Kisisel-Verilerin-Korunmasina-Dair-Tavsiyeler

[9] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1042.

[10] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1042.

[11] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1042-1043.

[12] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1043.

[13] Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI, s.193.

[14] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1043-1044.

[15] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1046.

[16] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1047.

[17] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1047.

[18] Underwriters Laboratories. “UL Joins Leading Body on Artificial Intelligence”, son güncelleme 31 Temmuz, 2023.

https://www.ul.com/news/ul-joins-leading-body-artificial-intelligence

[19] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1048.

[20] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1048.

[21] Vice. “AI Professor Proposes ‘Turing Red Flag Law’” son güncelleme 31 Temmuz, 2023.

https://www.vice.com/en/article/53dywx/ai-professor-proposes-turing-red-flag-law

[22] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1049.

[23] Stuart Russel ve Peter Norving. AI: A Modern Approach, s.1048.

[24] Stuart Russel ve Peter Norving. AI: A Modern Approach, s. 1053.

[25] Stuart Russel ve Peter Norving. AI: A Modern Approach, s. 1053.

[26] Stuart Russel ve Peter Norving. AI: A Modern Approach, s. 1054.

[27] Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI, s.201-202.

[28] Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI, s.197.

[29] Henry A. Kissinger, Eric Schmidt ve Daniel Huttenlocher. The Age of AI, s.184.