Açıklanabilir Yapay Zekâ

Yazar: Adnan Şahan

Giriş

Artifical intelligence (yapay zekâ-AI); bilgisayarların ve makinelerin, genellikle insan zekasını gerektiren görevleri yerine getirme kabiliyetidir. Bu; öğrenme, iletişim kurma, karar verme ve dil anlama gibi yetenekleri içerir.

Yapay zekânın gelişimi, insan yaşamını kolaylaştıran ve verimliliği artıran pek çok uygulama ve sistemin geliştirilmesine olanak tanımıştır. Ancak bu sistemlerin nasıl çalıştığını anlamak ve açıklayabilmek, kullanıcıların ve geliştiricilerin güvenini kazanmak için büyük önem taşımaktadır. İşte bu noktada açıklanabilir yapay zekâ (Explainable Artificial Intelligence – XAI – Açıklanabilir AI) devreye girmektedir. Açıklanabilir AI, yapay zekâ sistemlerinin karar alma süreçlerini şeffaf ve anlaşılır hale getirerek yapay zekânın gerçeğini anlamayı amaçlamaktadır.

A-Yapay Zekâ Nesilleri

1.Nesil Yapay Zekâ (Coder AI)

Coder AI, doğrudan programlama ve manuel kodlama ile yapay zekâ sistemlerinin geliştirilmesini ifade etmektedir. Kodlayıcılar, belirli görevleri yerine getirmek için algoritmaları ve veri işleme yöntemlerini manuel olarak yazarlar. Bu tür sistemler, insan müdahalesine ihtiyaç duyarken düşük seviyede otomasyon sağlar. Kodlayıcılar, algoritmaları elle yazarak yapay zekânın temel işlevlerini yerine getirir.

2. Nesil Yapay Zekâ (Tools and Libraries)

Nesil yapay zekâ, yapay zekâ geliştirme süreçlerini hızlandırmak ve kolaylaştırmak için kullanılan araçlar ve yazılım kütüphanelerinin kullanıldığı dönemi ifade eder. Bu dönemde geliştiriciler, yüksek seviyeli programlama dilleri ve API (Application Programming Interface)’ler sayesinde daha karmaşık yapay zekâ sistemlerini daha hızlı ve etkili bir şekilde oluşturabilmişlerdir. Örneğin, 2. nesil yapay zekâ kütüphanelerinden TensorFlow ve PyTorch gibi derin öğrenme frameworkleri, geliştiricilere önceden eğitilmiş modeller ve bileşenler sunmaktadır. Ayrıca Amazon SageMaker ve Google AI platform gibi bulut tabanlı hizmetler de yapay zekâ modellerinin geliştirilmesi ve dağıtılmasını kolaylaştırmıştır.

3. Nesil Yapay Zekâ (Otomatik Makine Öğrenimi – Automated Machine Learning – AutoML)

Nesil yapay zekâ yani sorumluluk sahibi yapay zekâ, makine öğrenimi modellerini otomatik olarak geliştiren, eğiten ve optimize eden teknolojileri içer. Bu nesil, yapay zekâ geliştirme sürecini daha erişilebilir ve hızlı hale getirir. AutoML, model seçimi, özellik mühendisliği ve hiperparametre optimizasyonunu otomatikleştirmektedir. Böylece kullanıcı müdahalesi minimuma indirilir. Google AutoML ve H2O.ai gibi platformlar, kullanıcıların az bilgiyle karmaşık modeller oluşturabilmesini sağlar. Karmaşık modellerin nasıl çalıştığını ve nasıl kararlar aldığını anlamak için ise açıklanabilir AI teknikleri de önemli bir yer tutar.

B-Açıklanabilir Yapay Zekâ Nedir?

Klasik yapay zekâ modeli, algoritmalar ve matematiksel modeller kullanarak veri analizi ve tahminler yapar. Ancak kararlarının arkasındaki nedenleri açıklayamazlar. Yani, klasik yapay zekâ modelleri “neden” sorusundan ziyade “ne” sorusuna cevap vermektedirler. Literatürde bu kavrama black box (kara kutu) denir. Örneğin klasik yapay zekâ bir görseli yalnızca belirli bir kategoriye (örneğin kedi veya köpek) sınıflandırırken hangi belirli özelliklerin (örneğin kulak şekli, kürk deseni) sınıflandırma üzerinde nasıl etkili olduğunu açıklamaz.

Her yapay zekâ sistemi, belirli bir hata oranına sahiptir ve bu hata oranının kabul edilebilir düzeyde olması sistemin kullanılabilirliği açısından kritiktir. Ancak yapay zekâ sistemlerinin hata yapma olasılığı, zaman zaman kullanıcılar arasında güvensizlik yaratmıştır. Bu nedenle, yapay zekâ karar süreçlerinin anlaşılabilir ve şeffaf olması büyük önem kazanmıştır.

Açıklanabilir yapay zekâ, yapay zekâ sistemlerinin verdikleri kararların anlaşılabilir ve yorumlanabilir olmasını sağlayan teknikler, araçlar ve algoritmalar bütünüdür. Amerikan Savunma Bakanlığı da açıklanabilir yapay zekâyı “yapay zekâ sistemlerinde güven ve şeffaflığın geliştirilmesi için kilit bir araç” olarak tanımlamıştır. Açıklanabilir AI, kullanıcıların karar sürecindeki kara kutu denen bilinmeyen karar verme süreçlerini aydınlatmaktadır. Karar süreçlerinin şeffaf ve anlaşılabilir olması, kullanıcıların yapay zekâ sistemlerine olan güvenini arttırmaktadır[RY1]  ve sistemlerin daha geniş bir alanda benimsenmesine katkıda bulunmaktadır. Bu sayede yapay zekâ teknolojilerinin etkin ve güvenilir bir şekilde kullanılmasını sağlamaktadır.

Açıklanabilir yapay zekânın geliştirilmesi ve benimsenmesi, AI sistemlerinin daha güvenilir ve etik hale gelmesine katkı sağlayacaktır. Açıklanabilir AI, karar verme sürecinde geliştirilmesi gereken alanları ortaya çıkarabilir. Bu sayede, geliştiriciler, modellerin çıktılarına nasıl ulaştığını anlayarak eksiklikleri belirleyebilir ve yapay zekâ modelinin performansını arttırabilir[RY2] .

1-Açıklanabilir Yapay Zekâ Çeşitleri

a) White-Box (Beyaz Kutu) Modeller

White box modelleri, karar alma süreçleri açık ve anlaşılır olan modellerdir. Bu modeller, kullanıcıların modelin nasıl çalıştığını ve neden belirli kararlar verdiğini kolayca anlamalarını sağlar.

b) Gray-Box (Gri Kutu) Modeller

Gray-box modelleri, bazı karar alma süreçleri açık olan, ancak bazıları kapalı kalan modellerdir. Bu modeller, kullanıcıların belli bir dereceye kadar anlayabilecekleri modellerdir.

c) Black-Box (Kara Kutu) Modeller

Black box modelleri, karar alma süreçleri tamamen kapalı olan ve iç mekanizmaları kullanıcılar tarafından anlaşılmayan modellerdir. Bu modeller, genellikle daha karmaşık ve yüksek doğruluklu olup açıklanabilirlik sağlamak için ek yöntemler gerektirir.

2-Açıklanabilir Yapay Zekânın Kullanım Alanları

a)  Sağlık

Sağlık alanı, açıklanabilir yapay zekânın kullanılabileceği alanların başında gelmektedir. Tıbbın yorumlayıcı niteliği dikkate alındığında açıklanabilir AI teşhislerde kullanılması doktorlara yardımcı olacaktır. Bu sayede yanlış teşhislerin önlenmesi[RY3]  de sağlanacaktır.

b) Otonom Araçlar

Otonom araçlar, açıklanabilir yapay zekânın önemli kullanım alanlarından biridir. Otonom araçların trafikte güvenli bir şekilde hareket edebilmesi için karar alma süreçlerinin şeffaf olması gerekir. Açıklanabilir AI, araçların neden belirli kararlar aldığını açıklayarak güvenliği arttırır[RY4]  ve kullanıcıların bu sistemlere olan güvenini pekiştirir. Örneğin, bir aracın ani bir fren yapmasının nedeni açıklanabilir ve böylece sürücü veya yolcular kendilerinin etik anlayışlarıyla durumu değerlendirebilir.

c)  İmalat

Üretim sektörü, açıklanabilir yapay zekânın verimliliği ve kaliteyi arttırmak[RY5]  için kullanıldığı bir diğer alandır. Açıklanabilir yapay zekâ ile üretim hatlarında meydana gelen hataların nedenleri açıklanabilir ve böylece sorunların kökenine inerek daha hızlı çözümler üretilebilir. Nitekim üretim sektöründe teknisyenler genellikle geçmiş tecrübelerine güvenirler. Açıklanabilir AI, teknisyenlerin hatalarını en aza indirecektir ve bu hataların nasıl önlenebileceğini gösterecektir.

d) Adli Bilimler

Açıklanabilir AI, adli vakalarda kullanılan yapay zekâ modellerinin karar alma süreçlerini açıklayarak suç analizi yapar ve delillerin nasıl değerlendirildiğini gösterir. Bu, adaletin sağlanmasına ve yanlış mahkeme kararlarının önüne geçer.

e)  Finans

Açıklanabilir AI, finans sektöründe kredi risk analizi ve hileli işlemlerin tespiti gibi alanlarda kullanılır. Böylece, finansal kararların neden alındığı açıklanarak müşteri güveni arttırılmış[RY6]  olur. Örneğin, açıklanabilir AI ile bir bankanın kredi başvurusunu neden reddettiği veya bir işlemde neden dolandırıcılık şüphesi bulunduğu net bir şekilde açıklanabilir.

3-Açıklanabilir Yapay Zekânın Riskleri

  1.  Teknik Karmaşıklık: Gelişmiş AI modellerinin açıklanması zor olabilir. Özellikle derin öğrenme modelleri gibi karmaşık yapılar, anlaşılması güç olabilir.
  2.  Açıklamaların Çok Fazla Olması: Eğer açıklamalar çok karmaşık veya detaylı olursa, kullanıcıları bunaltabilir ve anlaşılabilirlik amacını boşa çıkarabilir. Eksiksizlik ve anlaşılabilirlik arasında hassas bir denge kurmak önemlidir.
  3. Yanlış Yorumlama: Açıklanabilir AI açıklamaları, kullanıcılar için fazla teknik veya basitleştirilmiş olabilir bu da yanlış anlaşılmalara yol açabilir.
  4.  Manipülasyon: Bazı kötü niyetli kişiler, açıklama yöntemlerini yanıltıcı veya ön yargılı[RY7]  sonuçlar üretmek amacıyla manipüle edebilirler. Bu tür kişiler, kasıtlı olarak belirli girdiler hazırlayarak açıklanabilir yapay zekanın amacından sapmasına neden olabilir ve güvenilirliği zedeleyebilirler.
  • Fikri Mülkiyet Hakları: Ayrıntılı açıklamalar sunmak, bazı durumlarda yapay zekâ ürününün veya ilham alınan ürünün telif haklarına zarar verebilir. Bu durum, telif haklarının ihlaline yol açabilir ve yasal sorunlar doğurabilir. Bu nedenle, açıklanabilir yapay zekâ uygulamalarında fikri mülkiyet haklarının korunmasına özen gösterilmelidir.
  •  Maliyet: Açıklanabilir AI sistemlerinin geliştirilmesi ve sürdürülmesi maliyetli olabilir.

Sonuç

Açıklanabilir AI, yapay zekâ sistemlerinin şeffaf, anlaşılabilir ve güvenilir olmasını sağlamak için kritik öneme sahiptir. Açıklanabilir AI, kullanıcıların karar alma süreçlerini anlamalarını, hataları ve ön yargıları[RY8]  tespit etmelerini kolaylaştırırken, güvenlik ve etik sorunlarını da ele alır. Ancak, açıklanabilir yapay zekânın uygulanması teknik karmaşıklık, yanlış yorumlama ve güvenlik tehditleri gibi riskler de içerir. Bu nedenle, açıklanabilir yapay zekânın faydalarını en üst düzeye çıkarmak ve risklerini minimize etmek için disiplinlerarası iş birliği[RY9]  ve sürekli araştırma gereklidir. Bu yaklaşım, AI teknolojilerinin sorumlu ve etkili bir şekilde kullanılmasını sağlayacaktır.

Tüm gündem yazılarımıza bağlantıdan ulaşabilirsiniz.

Yapay zeka alanındaki “Deep Fake ve Adli Bilişim” isimli yazıyı okumak için bağlantıya tıklayınız.

Yazar: Adnan ŞAHAN