Yapay zekânın kötü amaçlı kullanımının tehditleri neler?

Erdal Musoğlu Y
Yapay zekânın kötü amaçlı kullanımının tehditleri neler?

Füzeye dönüşmüş insansız hava araçları, kamuoyunu yanlış yönlendiren yapay zekâ üretimi videolar, bilgisayar korsanı bilgi sistemleri... İşte kötü ellere geçen yapay zekânın tehditlerine birkaç örnek.

Yapay zekâ ve makina öğrenmesi (machine learning) yetenekleri eşine rastlanmayan bir hızla ilerliyor. Bu teknolojilerin geniş çaplı ve çok yararlı uygulamaları otomatik çeviriden tıbbi görüntü analizine kadar gidiyor. Yeni uygulamaların sayısı da çığ gibi büyüyor. Öte yandan, yapay zekânın kötü amaçlı kullanımı konusuna ise şimdiye kadar yeterince önem verilmediği anlaşılıyor.

Geçtiğimiz günlerde, işte tam da bu konuda, üniversite, sivil toplum ve endüstriden 14 ayrı kuruluşta çalışan 26 uzmanın hazırladığı ‘Yapay Zekânın Kötü Amaçlı Kullanımı - Öngörme, Önleme ve Etkilerini Azaltma’ (T he Malicious Use of Artifi cial İntelligence - Forecasting, Prevention and Mitigation) konulu bir rapor yayınlandı.


Rapor, yapay zekâ teknolojilerinin kötücül (malicious) kullanımının oluşturduğu tehditleri inceliyor ve bu tehditleri daha iyi öngörme, önleme ve etkilerini en aza indirmenin yollarını öneriyor. Rapor, günümüz ile önümüzdeki beş yıla odaklanıyor ve yapay zekânın günümüzde ulaştığı düzeyin, ‘haydut devletler’ (rogue states), suçlular ve teröristler tarafından kullanımına el verdiğine özellikle dikkati çekiyor. Yapay zekâ sistemlerini tasarlayanların, uygulamalarının kötü amaçlı kullanımını en aza indirmek için daha çok çaba göstermeleri ve hükümetlerin de bu amaçla yeni yasalar yapmaları gerektiği de vurgulanıyor.

Onlarca yıldan beri yapay zekâ ve makina öğrenmesi (machine learning) konusunda söylentiler hep gerçeklerin çok ötesinde idi. Ama artık değil! Yüz sayfalık bu rapor, günümüzde artık iş görmeyen bilgi ve bilgisayar güvenliği yöntemlerini gözden geçiriyor ve buna çözüm olabilecek yaklaşımlar öneriyor: Kötüye kullanılan yapay zekâya dayanıklı donanım ve yazılım tasarımı ile bunlarla ele ele gitmesi gereken yasalar ve uluslararası yönetmelikler gibi.

Ezber bozan gelişmeler

Özellikle endişe verici olan, son dönemde yapay zekânın, Güçlendirilmiş ya da Pekiştirilmiş Öğrenme (Reinforcement Learning) olarak adlandırılan teknoloji ile yeni bir döneme girmiş olması. Bu yöntemle, yapay zekâ sistemleri, belirli alanlarda, örneklere ya da yönlendirmeye gerek olmaksızın ‘süper insan’ zekâsına ulaşabiliyorlar.

Yakın gelecekte yapay zekânın nasıl bir güvenlik tehdidine dönüştürebileceğinin örnekleri şunlar olabilir:

• Google’ın DeepMind bölümünün geliştirdiği ve Go oyunu şampiyonlarını ezip geçen AlphaGo uygulaması, verilerde yepyeni örüntüler (pattern) bulmak için ya da bilgisayar sistemlerine girmek amacı ile yazılımlardaki boşlukları keşfetmek için bilgisayar korsanları (hacker’ler) tarafından kullanılabilir.

• Kötü niyetli biri, bir insansız hava aracını, yüz tanıma yazılımları aracılığı ile belirli bir kişiyi hedefleyen bir silaha dönüştürebilir.

• İnternet Robotları (BOT’lar), yapay zekânın ürettiği ve gerçeğinden ayırt edilemeyecek videolar ile yalan haber üretme ve politik yönlendirme amacı ile kullanılabilir.

• Yine, bir bilgisayar korsanı, yapay zekâ kontrolündeki bir insan sesi sentezi sistemini kullanarak, kendisini, kuşku duyulmayacak bir biçimde, başkasının yerine koyabilir.

Raporun yazarlarından, Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nden Miles Brundage söyle diyor: “Yapay zekâ, bireyler, kurumlar ve devletlerin karşı karşıya olduğu riskleri artırmakta ve değiştirmekte. Bir bilgi sistemini uzman bir bilgisayar korsanı olarak eğiten ve kullanan bir suçludan, bireylerin mahremiyetini yok eden, profillerini çıkartan ve onları baskı altına alan bir izleme sistemine kadar, güvenliğin karşı karşıya olduğu tehditlerin spektrumu çok geniş.

Üç güvenlik alanı seçilmiş

Rapor analizini üç güvenlik alanı üzerinde yapılandırıyor ve bu üç alandaki güvenlik tehditlerinin değişimini etkileyici örneklerle açıklıyor:

• Sayısal Güvenlik: Siber saldırıların yapay zekâ ile otomasyonu bu saldırıların büyüklüğü ile etkinliği arasındaki ters orantıyı değiştirecek. Emek yoğun siber saldırıların tehdidi artacak. Ayrıca, yapay zekâ kontrolündeki ses sentezi aracılığı ile başkalarının kimliğine bürünüp insani zayıflıkları kullanan, yine yapay zekâ aracılığıyla yapılan bilgisayar korsanlığı ile yazılım boşluklarını bulup bilgisayarlara giren, ya da ters örnekler ve bilgi zehirleme teknikleri kullanarak öğrenen makineleri yanıltan yeni tür siber tehditler beklenmekte.

• Fiziksel güvenlik: İnsansız hava araçları (Drones), ya da kendi kendini idare eden (autonomous) silahlarla yapılan saldırıların yapay zekâ kontrolüne geçmesi bu saldırıların oluşturduğu tehdidi artıracaktır. Yapay zekânın yeni tür fiziksel tehditleri ise siber-fiziksel sistemleri ele geçirmek biçiminde olacaktır. Örneğin sürücüsüz bir aracın kontrolünü alarak ona kaza yaptırmak, ya da halen insanlar tarafından uzaktan kumanda edilmesi olanaksız fiziksel sistemleri, örneğin binlerce mikro drone’dan oluşan bir robot sürüsünü yönetmek gibi.

• Politik güvenlik: Yapay zekânın, bireyleri izleme (kitlelerden toplanan verilerin analizi), inandırma (hedefe yönelik propaganda üretimi) ve aldatma (üzerinde oynanmış görüntü ve videolar) amacı ile yapılan işleri otomatikleştirmek amacı ile kullanımı, mahremiyetin yok edilmesi ve sosyal manipülasyona dönük tehditleri çok artıracaktır. Yeni uygulamalar, büyük veriler aracılığı ile bireylerin davranışları, psikolojileri hatta inançlarını çözümleyip bunları kullanacaklar. Bu endişe verici gelişmelerin oluşturduğu tehditler daha çok otoriter rejimler altındaki ülkeler için geçerli olsa da demokrasilerde de sağlıklı bir toplumsal diyaloğu engelleyeceğe benziyorlar.

Özetle, söz konusu rapor alarm zillerini tam zamanında çalıyor. Yapay zekânın kendi kendini geliştirip çoğaltarak insanları köle ya da yok etme olasılığı henüz bir spekülasyondan öteye gitmiyor. Ama yukarıda özetlediğimiz kötü amaçlı kullanımı daha bugünden büyük tehlike.

Erdal Musoğlu / [email protected]

Kaynaklar:
https://maliciousaireport.com 

http://www.bbc.com/news/technology-43127533

Bu yazı HBT'nin 102. sayısında yayınlanmıştır.

Erdal Musoğlu