Yapay zeka kötüye kullanılabilir mi?

Lale Akarun
Yapay zeka kötüye kullanılabilir mi?

Bu soruyu herkes soruyor! Evet, yapay zeka kötüye kullanılabilir.

Mesela öğrenciler tüm ödevlerini yapay zekaya yaptırabilir. Mesela yapay zeka size nasıl suç işleyeceğiniz ya da vergi kaçıracağınız konusunda yardımcı olabilir. Kastedilen kötüye kullanma bunlar ise, asıl kötülüğü yapanın yapay zekayı kötüye kullanan insanlar olduğunu söylemek istiyorum.

Aynı şeyi başka teknolojik icatlar için de söyleyemez miyiz? Zehirli gazlar kötüye kullanılabilir. Tabancalar, saldırı silahları kötüye kullanılabilir. Atom bombası kötüye kullanılabilir. Niye bunlardan korkmuyoruz da, yapay zekadan korkuyoruz? Yapay zeka tek başına niye bizi bu kadar korkutuyor?


Son zamanlarda bizzat bu teknolojiyi geliştiren kişiler bu soruyu gündeme getirip, “dikkat edelim, çok ilerledi, yapay zeka kötüye kullanılabilir” demeye başladı. Üç değişik şey gündeme getirildi: Gerçek-sahte ayrımının zorlaşması; yapay zekanın insanları işsiz bırakması, ve yapay zekanın kontrolden çıkması. Bunları biraz daha düşünelim:

Son zamanlarda politikacıları söylemediği şeyleri söylemiş gibi göstermek ve seçmenlerin gözünden düşürmek için “deep fake” adı verilen yapay zeka teknolojisinin kullanılması gündeme geldi. Evet, böyle bir teknoloji var: Sizin yüzünüzü videodaki başka bir kişinin yüzüyle değiştiren, o kişinin sesini sizin ses tonunuz ve vurgularınızla değiştiren teknolojiler var. Yapay zeka yerine mesela size çok benzeyen ve sesini sizinkine benzeten bir aktör bu iş için kullanılsa daha mı iyi olacaktı?

Korkutucu olan şu: Yapay zeka yazılımının binlerce kopyası yaratılabilir; bunlarla birkaç dakikada binlerce sahte video üretilebilir. Oysa bin tane size benzer aktör bulmak, onları eğitmek, film çekmek o kadar da kolay değil. Dolayısıyla, korktuğumuz şey yapay zekanın ölçeklenebilir olması: Bir filmi üreten kolaylıkla yüz tane, bin tane, milyon tane üretebilir.

İkinci konu, yapay zekanın dünyadaki insanların yaklaşık dörtte birini işsiz bırakması riski. Özellikle mevzuat tarama, belge derleme, rapor yazma gibi belli rutin beyaz yaka işler tehlikede. Yapacak bir şey yok; daha nitelikli işler için daha iyi eğitim vermek zorundayız. Ancak insanları eğitmek uzun sürüyor ve yapay zeka daha hızlı gelişiyor. Ya o zamana kadar yapay zeka daha nitelikli işleri yapmayı da öğrenir ve insanlara hiç ihtiyaç kalmazsa? İnsanlar para kazanamaz, daha da önemlisi harcayamazsa ekonomi çöker. Ciddi bir problem. Politika yapıcılar bunun için vatandaşlık geliri gibi çözümler üzerine kafa yoruyor.

Yapay zekanın kontrolden çıkması ise daha ciddi bir tehlike. Bunun nasıl olacağını yapay zekayla bir insanı karşılaştırdığımız bir örnekle anlatalım: Yapay Zekanın belli amaç fonksiyonları var: Diyelim ki, bir otonom aracınız var; amaç fonksiyonu da en kısa yoldan bir yere gitmek. Elinde bir harita var; o haritada yollar işaretli. Haritadaki en kısa yolu bulup o yoldan gidiyor. Aynı bir bisiklet yarışındaki bisikletçi gibi. Ancak bisikletçi, ne pahasına olursa olsun kazanmayı kafaya koymuşsa hakem bakmazken haritada olmayan bir kestirme yol bulup öne geçebilir. Bu aslında, yarışı kazanmak için kısıtları çiğnemek demek.

İnsanlar bunu hep yapıyorlar: Öğrenciler dersleri öğrenmek yerine sınıfı geçmek için kopya çekiyor, akademisyenler faydalı araştırmalar yapmak yerine sahte makaleler yazıp puan almaya odaklanıyor. Ya yapay zeka da bunu yapmayı, yani kısıtları çiğnemeyi öğrenir ve zararlı işler yaparsa? İnsanların bunları yapmamaları için pek çok önlem alınmış: Eğitim, kurallar, ceza mekanizmaları.

Yapay zeka için de bunlara ihtiyaç var. Bu konuları ele alan, çözümler geliştiren “Sorumlu Yapay Zeka” adı verilen bir araştırma alanı var. Bu alanın kurucularından, Utrecht Üniversitesi'nde Sorumlu Yapay Zeka profesörü Pınar Yolum’u tebrik ediyor, bizi Yapay Zekanın şerrinden korumasını diliyoruz.

Lale Akarun

*Bu yazı, HBT Dergi 372. sayıda yayınlanmıştır.

Lale Akarun