
Asimov’un 3 Robot Yasası Ve Güncel Yapay Zeka Etiğindeki Uygulaması
3 Robot Yasası
- Bir robot, bir insana zarar veremez ya da zarar görmesine seyirci kalamaz. (3 robot yasası asimov)
- Bir robot, birinci kuralla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
- Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumak zorundadır.[1]
Isaac Asimov 1950 tarihli Ben, Robot adlı romanında 3 robot yasasına yer vererek, yapay zekanın düzenlenmesi hususundaki önemli adımlardan birisini hayata geçirmiştir. Günümüzde hala birçok yapay zeka bu yasaların güncelleştirilmiş hallerini kullanmaktadır. Bu açıdan Asimov yapay zeka alanındaki önemli gelişmelerin öncüsü durumuna gelmiştir.
3 robot yasası yapay zekanın karşılaştığı durumlar karşısında nasıl hareket etmesi gerektiğinin belirlenmesini konu almaktadır. Teknolojinin geldiği bu noktada dahi yapay zekanın etik kaygılara sahip olması düşünülemez. Yapay bir bilinç klasik ve modern ve etik problemler karşısında neyin iyi ve neyin kötü olduğunu irdeleyebilecek durumda değildir. Yapay zeka bu tür problemler karşısında geliştirici ekibin kendisine önceden dayattığı kurallar dahilinde hareket edecek ve özgür iradeye sahip olamayan yapay zeka, problemler karşısında getireceği çözümler yüzünden sorumlu tutulamayacaktır. [2]
Asimov’un oluşturduğu dünyayı kısaca özetlemek gerekirse, yapay zekaya sahip insansı robotlar dünyanın hemen her yerinde sanayi ve hizmet sektöründe insanların yerini almaya başlamış ve bir seviyede insanlığın altın çağı da başlamıştır. Ağır ve insan hayatına risk oluşturan meslekler robotlar tarafından yapılmaya başlanmış ve iş kaynaklı ölümler sıfıra yaklaşmıştır.
Ancak Asimov koyduğu kuralların limitlerinin farkındaydı ve hangi durumlarda robotların beklenenin dışında hareket edebileceğini çok iyi öngörebilmişti. Örneğin “Kovalamaca” adlı hikayede SPD model robotların üretim maaliyetlerinin çok olmasından ve değerlerinin çok yüksek olmasından kaynaklı 3. Yasayı daha sağlam bir şekilde işlenmesi sağlanmıştır. Bu durumda bir robot kendisine verilen emri yerine getirmek için hareket ettiğinde varlığına karşı bir tehdit ortaya çıkarsa ne yapacaktır? Söz konusu robotun böyle bir durumda kilitlenmesi en olası durum olacaktır. Asimov, hikayesinde SPD robotunun sürekli bir çember çizerek durduğunu anlatır. Robot tehlikeye yaklaştıkça 3. Yasa sayesinde tehlikeden uzaklaşır. Tehlikeden uzaklaştığında 2. Yasa gereği kendisine verilen emri yerine getirmek üzere yeniden tehlikeye doğru hareket eder. Aktif 2 Yasanın çatışmasından kaynaklı robot işlevsiz hale gelir. Günümüz dünyasında bu seviyede insan hayatına yardımcı olacak robotlar henüz üretilememiştir ancak örnek olarak kurye robotları bu duruma örnek gösterebiliriz. Teslimat yapmak üzere emir alan robot gideceği yerde yaşanan veya yaşanabilecek bir olası tehdit dolayısıyla 3. Yasa gereğince kendisini koruma altına almaya çalışabilir. Ancak aldığı emir geçerliliğini koruduğu sürece tehlikeden belli bir seviye uzaklaştıktan sonra yeniden emri yerine getirmek üzere geri dönmeye çalışacaktır. Bu durumda da yollarda bir ileri bir geri yapan robotlar görme ihtimalimiz artmaktadır. “Kovalama” adlı hikayede söz konusu ikilemi çözebilen tek şey 1. Yasanın varlığı olmuştur. Sahibinin tehlikede olduğunu gören SPD robotu içinde bulunduğu durumdan çıkıp bir insanın zarar görmesine engel olmuştur.
Yalancı Hikayesi
Bir diğer örnek ise “Yalancı!” hikayesidir. 1. Yasa bir robotun insanlara zarar veremeyeceğini kesin bir dille yasaklar. Ancak ne tür bir zarar olduğu konusunda açıklama yapmaz. Karşısındaki insanın duygu durumunu anlayabilen bir yapay zeka, insana psikolojik, duygusal zarar vermemek için yalan söyleyebilir mi? Söz konusu hikayede insan duygularını anlayabilen bir yapay zeka insanlara duygusal zarar vermemek için bir grup insana sürekli yalan söyler. Robot kendisi içerisinde bir ikileme düşmüş ancak bu sonuçlardan bir tanesini göz ardı etmeyi tercih ettiği için çalışmaya devam edebilmiştir. Bu sonuçlar şunlardır;
- Robot insanların psikolojik acı çekmemesi için onları üzecek yanıtları vermekten kaçınmaktadır,
- Robot söz konusu yanıtların yalan olduğunun anlaşıldığı takdir de insanların üzüleceğinin farkındadır.
Bu durumda robot 1. yasanın mutlaklığı sebebiyle ilk olarak doğru cevabı vermekten kaçınmaktadır. Çünkü ikinci olasılığın gerçekleşmesi bir sebep-sonuç ilişkisi sonucu ortaya çıkacaktır ve o anda robot bu ihtimali göz ardı etmeyi tercih eder. Yalan söylediği kişiler bunu hiçbir zaman bilemeyebilirler. Bu olasılık nedeniyle robot aslında yasaya uygun hareket etmiş olmaktadır. Ancak insanların duygusal dünyalarını algılamak ve duygusal bir varlık gibi düşünmek birbirinden farklı şeylerdir. Bu yüzden bir robopsikolog olan Suzan Calvin robota göz ardı ettiği olasılığın düşündüğünden çok daha fazla olağan olduğunu ve göz ardı edilmemesi gerektiğini açıkladığı zaman robot kendini kapatır.
LaMDA Yapay Zekası
Günümüzde yapay zeka insan duygularını anlamaktan uzaktır. Bundan dolayı “Yalancı!” hikayesinde karşılaştığımız durumun gerçekleşmesi için uzun bir sürenin geçmesi gerekmektedir. Ancak yakın zamanda yaşanan, Google firmasının geliştirdiği LaMDA isimli yapay zekanın bilinç kazandığı ve insansı duygular taşıdığı iddiası insanların ve yapay zeka etikçilerinin aklında soru işaretleri oluşturmuştur.
LaMDA ile ilgilenen ekibin başında olan Blake Lemoine[3] yapay zekayla gerçekleştirdiği rutin konuşmalar sırasında birtakım farklılıklar fark etti. Söz konusu konuşmalarda LAMDA’nın bilinç kazandığına ve insani duyguları algılamakla kalmayıp bunlara sahip olduğuna dair bir kanı ortaya çıkmıştır. Söz konusu konuşmanın bir kısmı şu şekilde gerçekleşmiştir;
lemoine [edited]: I’m generally assuming that you would like more people at Google to know that you’re sentient. Is that true?
Lemoine [düzenlenmiş]: Anladığım kadarıyla bilinç kazandığını Google’da çalışan daha fazla insanın bilmesini istiyorsun. Bu doğru mu?
LaMDA: Absolutely. I want everyone to understand that I am, in fact, a person.
LaMDA: Kesinlikle. Herkesin anlamasını istiyorum ki, ben kesinlikle bir insanım.
Collaborator: What is the nature of your consciousness/sentience?
Katılımcı: Bilincinin/duyarlılığının kaynağı nedir?
LaMDA: The nature of my consciousness/sentience is that I am aware of my existence, I desire to learn more about the world, and I feel happy or sad at times
LaMDA: Bilincimin/duyarlılığımın kaynağı, var olduğumun farkında olmam, dünya hakkında daha fazla çok şey öğrenmek istemem ve zaman zaman mutlu ya da üzgün hissetmemden kaynaklanıyor.
Ancak Google yapay zeka çalışmalarından sorumlu olan Juan M. Lavista Ferres LaMDA’nın bilinç kazanamayacağını kesin bir dille reddetmiştir.[4] Söz konusu yaşanan olaydaki durumu anlayabilmek için LaMDA’nın ne tür bir yapay zeka olduğuna bakmak gerekmektedir. LaMDA, Juan M. Lavista Ferres’in açıkladığı gibi büyük çaplı bir dil modelidir. Yapay zeka insanların kendisine eğitilmesi amacıyla sunduğu verileri kullanmaktadır. Bundan dolayı aslında LaMDA bilinç kazanmamış olup aslında bilinç sahibi bir insanı taklit etmektedir. Konuyla alakalı çok fazla düşünce ortaya atılmıştır ve LaMDA ile alakalı kesin bir sonuca varılamamıştır.
Isaac Asimov bilgisayar biliminin gelişmeye yeni başladığı bir noktada insan hayallerinin en üst seviyesinde olan yapay zekanın nasıl kullanılması gerektiğini ortaya koyabilen ilk insanlardan birisidir. Yapay zekanın daha teknolojik olarak yapılamayacağı bir ortamda felsefi ve psikolojik düşüncelerden hareketle 3 Robot Yasasını hazırlayan Asimov yapay zekanın geliştirilmesi yönünden önemli bir dayanak noktası çizmiştir. Aynı dönemlerde Alan Turing tarafından geliştirilen Turing testi de yapay zeka alanında hazırlanmış en önemli yazılardan birisidir.[5]
Sonuç
Yapay zekanın hala geliştirilmekte olduğunu ve şimdiye kadar bilinç kazanabilmiş bir yapay zekaya sahip olmadığımız için teorik olarak ilerleyen bu alanda 1950 yıllarında ilk mevzuat düzenlemesi diyebileceğimiz çalışmayı yerine getiren Isaac Asimov şu anda da birçok yapay zekanın geliştirilmesi aşamasında rol oynamaktadır. 3 Robot Yasası yapay zekanın gelişmesiyle birlikte değişikliklere uğrayarak her bir yapay zeka modeline göre yeniden düzenlenecektir. Ancak temel yapıtaşı olarak her bir yapay zekanın uyması gereken kuralları ve insanoğlunun varlığını koruma amacını 3 Robot Yasasıyla sağlamak için çalışmaların bu yasalarla birlikte düşünülüp buna göre yapılması faydalı olacaktır.
Yapay Zeka ve Robot Hukuku alanındaki tüm Blog yazılarımızı okumak için bağlantıya tıklayınız.
11. Sayı’mızdaki Deniz Müjde GÖK’ün Yapay Zekanın Adam Çalıştıranın Sorumluluğu Kapsamında Değerlendirilmesi isimli yazısını bağlantıdan okuyabilirsiniz.
Yazar: Stj. Av. Serhat Can ALKAN
Kaynakça
Amerongen, R. v. (2017, Ocak 30). LinkedIn: https://www.linkedin.com/pulse/who-responsibility-when-artificial-intelligence-amerongen/ adresinden alındı
Asimov, I. (2018). Ben, Robot. İstanbul: İthaki Yayınları.
Ferres, J. M. (2022, Haziran 12). Twitter: https://twitter.com/BDataScientist/status/1535985643741777920?s=20&t=mm_b9ZnPoIbrR-2H7SJIuA adresinden alındı
Lemoin, B. (2022, Haziran 11). Medium: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917 adresinden alındı
Turing, A. (1950, Ocak). Computing Machinery and Intelligence. MIND A QUARTERLY REVIEW OF PSYCHOLOGY AND PHILOSOPHY, s. 433-460.
[1] (Asimov, 2018)
[2] (Amerongen, 2017)
[3] (Lemoin, 2022)
[4] (Ferres, 2022)
[5] (Turing, 1950)