Siz aracınıza böyle mi terbiye verdiniz?

Tevfik Uyar
Siz aracınıza böyle mi terbiye verdiniz?

Ahlâk felsefecisi Philippa Foot'un yaratıcısı olduğu, Peter Unger’ın çeşitli varyasyonlarını geliştirdiği meşhur muzip sorulardan birini sorayım size:

Bir tren raylarda gitmektedir. İleride ise bir makas var. Makasın bir yanında dört kişi raylara yatırılarak bağlanmış ve ölüme terk edilmiş. Diğer yanında ise bir kişi, aynı şekilde hasmı tarafından yatırılarak bağlanmış. O da üzerinden geçecek treni bekliyor.

Eğer makası değiştirmezseniz o tren dört kişi üzerinden geçecek. Eğer değiştirirseniz bir kişi. Yani oradaki insanlardan hangilerinin öleceği, başka bir deyişle kaç insanın öleceği tamamen sizin elinizde. Treni durdurma şansınız yok. Kimseyi gidip çözecek vaktiniz yok. Ancak ve ancak makası kontrol edebiliyorsunuz… Bu makası değiştirerek ölü sayısını bire düşürür müydünüz? Yoksa sistemi olduğu gibi bırakır ve dört kişinin ölümüne seyirci mi kalırdınız?


İyi ki hayat bizi bu tür tercihler yapmak zorunda bırakmıyor. Yoksa hayat hepimiz için epey zorlu olurdu. Lakin böyle ahlâki sorular üzerinde ara sıra düşünmek ilginç olabilir.

Merak ediyorsanız söyleyeyim. İnsanların çok büyük bir çoğunluğu makası değiştirmeyi tercih ediyor. Hiç tanımadıkları dört kişiyi kurtarmayı, yine hiç tanımadıkları bir kişiyi kurtarmaya yeğliyorlar. Kader çoktan dört kişiyi hedeflemiş olsa bile…

Bu ahlâk “sonuççu etiğin” bir ürünü. Sonuçları karşılaştırmak ve azami sayıda kişinin yararına (ya da asgari kişinin zararına) olan seçeneği tercih etmek… Eski etikçiler buna “utiliteryanizm” de der. Temel karar birimi azami faydadır.

Sonuççu etik günümüz robotikçilerinin de problemi… Yani robotikle uğraşmak istiyorsanız, “ben sadece programlarım arkadaş…” demek o kadar mümkün değil. Bir şekilde öğrenebilen, tamamen kendi iradesiyle hareket edebilen bir “robot” yapacaksanız, onun kritik kararları nasıl vereceği üzerine de kafa yormanız gerekiyor. Hele ki bu kritik kararlarda insan hayatı söz konusuysa…

Bilimkurgu eserleriyle tanıdığımız Asimov, meşhur robot yasalarında bir robotun bir insana asla zarar veremeyeceği, bir insanın zarar görmesine asla seyirci kalamayacağı gibi yasalarla insan robot ilişkisinin bir temelini oluşturmuştu. Pek güzel… Bu tür bir programlama ile robotların insan yaşamını ilgilendiren kararlarını iyi kötü düzenleyebiliriz.

Peki ya Google’ın geliştirdiği otonom araç bir kaza riski ile karşı karşıya kaldığında, bu yazının girişindeki gibi bir ikilemle karşı karşıya kalırsa? Yani elinde tek kişinin ya da dört kişinin öleceği sadece iki seçenek bulunursa ne yapacak? Ki bu aracın içinde yalnız siz varken, dört kişiye çarpmak yerine uçurumdan yuvarlanmayı tercih etmek şeklinde olabilir, ki belki de aracı siz kullansaydınız bu tercih etmeyeceğiniz bir sonuç olabilirdi değil mi? (Sadece felsefe yapıyoruz. Cani ve bencil olduğumu düşünmeyin lütfen.)

O halde otonom araçlar ortalarda vızır vızır dolanırken, “yalnız gezmek riskli… Kalabalık olmak lazım” mı diyeceğiz? Veyahut da otonom aracın içini mümkün olduğunca doldurmayı?

Peki size ait bir otonom araç bir arıza dolayısıyla kötü bir karar verirse sorumluluk kime ait olacak? Bakımlarını zamanında yaptırmadıysak, katil sayılacak mıyız? Birbirimize “siz aracınıza böyle mi terbiye verdiniz!” diye bağırıp çağıracak mıyız?

Elbette bu sorular biraz zorlama sorular. Otonom araçlar insanlardan çok daha az kaza yaptıkları ortaya konmadıkça caddelerdeki yerlerini almayacaklardır. Lakin bizlerin bu kritik kararları nasıl aldığımızı anlamamız bakımından, kendi yaratımlarımız olan robotları nasıl dizayn edeceğimizi düşünmek yararlı bir uğraş.

Ayrıca robotiğin felsefeden bağımsız bir alan olmadığını göstermesi bakımından bu tür problemleri özellikle seviyorum... Zira bilimkurgu da bu felsefeden ziyadesiyle besleniyor; bilimi ve teknolojiyi de daha eğlenceli, daha insanî uğraşlar haline getiriyor.

Kim derdi kendimizi makineler üzerinden düşünerek daha iyi tanıyacağız? Eee... Ne demişler?

Robotum sana söylüyorum, insanım sen anla…

 

Tevfik Uyar / @tevfik_uyar

Not: Şu videoyu da şuraya bırakayım: Tren problemine 2 yaş çözümü 🙂

 


Tevfik Uyar

İstanbul Teknik Üniversitesi Uçak Mühendisliği bölümünden mezun olmuştur. Yüksek Lisans ve Doktora derecelerini İstanbul Kültür Üniversitesi İşletme Yönetimi Anabilimdalı'ndan almıştır. Çalışmaları risk algısı, belirsizlik altında karar verme ve emniyet yönetimi üzerinedir. Açık Bilim'in kurucusu, Yalansavar editörü ve Herkese Bilim Teknoloji Dergisi yayın kurulu üyesi olan Uyar, "Astrolojinin Bilimle İmtihanı", "Safsatalar: Aklın Kırk Haramisi" gibi popüler bilim kitaplarının, “Tek Kişilik Firar”, “Kızıl Sürgün” gibi bilimkurgu eserlerin yazarı, "İrrasyonel", “Yalancılar ve Sahtekarlar Ansiklopedisi”, "Başkalarının Aklı" gibi kitapların çevirmenidir.