Bilişim Hukuku – Bilişim Ceza Hukuku – Ceza Hukuku – İş Hukuku

TürkçeالعربيةEnglishDeutschРусский

Yapay Zekalı Araç Kaza Yaptı Şimdi Ne Olacak

Yapay Zekalı Araç Kaza Yaptı Şimdi Ne Olacak
Tempe Kazası ve Trolley Dilemma

Geçtiğimiz haftalarda ABD’nin Arizona eyaletinin Tempe şehrinde bir Uber aracı karşıdan karşıya geçen bir yayaya çarpıp ölümüne sebebiyet vermişti.[1] Uber aracının direksiyonunda operatör(sürücü) bulunsa da, kaza esnasında aracın otonom modda olduğu duyurulmuştu. Dolayısıyla bu kaza, geçtiğimiz yıl bir Tesla operatörünün öldüğü kazadan sonra otonom aracın karıştığı ikinci ölümlü kaza niteliğini taşımakla birlikte; otonom bir aracın bir yayaya çarptığı/ölümüne sebebiyet verdiği ilk kaza olarak da kayıtlara geçmiştir. Hemen belirtelim ki 23 Mart 2018 tarihinde bir Tesla Model X aracı daha otonom moddayken kaza yapmış, sürücüsü ölmüş ve aracın pilleri alev alarak aracı tanınmaz hale getirmişti.[2]

Geçtiğimiz yılki Tesla kazasından sonra yapılan etik ve sorumluluk tartışmaları şüphesiz ki Uber’in Tempe kazasından sonra daha yoğun bir şekilde yapılacaktır. Zira Tesla kazasından sonra operatörün bir takım güvenlik önlemlerine uymadığı tespit edilmişti. Tempe kazası henüz yeni olmakla birlikte Uber kamera kayıtları basına yansıdı.[3] Kamera görüntüleri incelendiğinde durumun Tesla kazasından çok da farklı olmadığı, -en azından- ilk etapta söylenebilir. Nitekim polis raporlarına göre de araç operatörü kaza sırasında ve öncesinde ileri değil aşağı doğru bakmaktaydı ve elleri direksiyonda değildi.[4] Yolu gösteren araç içi kamera görüntüleri incelendiğinde yayanın yaya geçidinden geçmediği ve karanlık içerisinden birden belirdiği gözlemlense de; operatör yola baksaydı o yayayı görecek miydi yoksa göremeyecek miydi hususu ceza hukuku özelinde tartışılması gereken bir konudur.

Esas nokta, “otonom araç yayayı görseydi ne yapacaktı?” sorusu. Tesla kazasından sonra yapılan “otonom araç doğru kararı verebilir mi?” soruları ve tartışmaları,[5] şüphesiz ki Tempe kazasında daha çok sorulmalı, daha çok tartışılmalıdır. Şüphesiz yakın gelecekte otonom araçlar, kontrol-sensör ve yapay zeka teknolojisinin gelişmesiyle, operatör –ve hatta direksiyon, gaz ve fren pedalları- olmaksızın yola çıkacaklar. Belki Tempe kazası için operatörü sorumlu tutmak çözüm olabilecekse de, operatörü bulunmayan otonom aracın karıştığı bir kazada sorumluluk kapsamını çizmeye/belirginleştirmeye başlamanın zamanı gelmiştir.

Bir diğer nokta ise, -ki bu konuya bilim insanları tarafından da dikkat çekilmektedir- otonom araç gerçekten doğru kararı verebilecek midir? Açıkçası Tempe kazasında doğru kararın “fren yapmak” ya da “başka yöne manevra yapmak” olduğu kolaylıkla söylenebilirse de, işi biraz daha karmaşıklaştırdığımızda “doğru karar”ın ne olacağı etik olarak gerçekten tartışmalıdır.

California Devlet Üniversitesi’nden Doç. Dr. Patrick Lin, 1967 yılında Philppa Foot tarafından ileri sürülen Trolley Dilemma yani Tramvay İkilemi olarak adlandırılan etik-ahlaki bir paradoksu yeniden gündeme getirmiştir.[6] Tramvay ikilemi düşünsel bir deney olup bu deneyde iki senaryo tasarlanmıştır. İlk senaryoda, tramvay hızla yoluna devam etmektedir, devam ettiği hat(1 no’lu hat) üzerinde 5 işçi vardır ve tramvayın onlara çarpmama ihtimali başka bir anlatımla o 5 işçinin tramvaydan kaçma ihtimali yoktur. Tramvayın yönelebileceği diğer hat(2 no’lu hat) üzerinde ise 1 işçi vardır ve tramvayın bu işçiye de çarpmama ihtimali yani o işçinin tramvaydan kaçma ihtimali yoktur. Denek ise, tramvayın 1 no’lu hat ile 2 no’lu hat arasında geçiş yapmasını sağlamaktan başka hiçbir imkana sahip değildir. Denek bu durumda ne yapacaktır? Makası değiştirip tramvayın 2 no’lu hatta geçişini sağlayıp 5 kişinin hayatını kurtaracak mıdır? İkinci senaryoda ise yine 1 no’lu hat üzerinde 5 işçi vardır ve tramvayın onlara çarpmama ihtimali yoktur. Ancak bu kez denek, tramvay yolunun üzerindeki bir köprüdedir ve yanında –cüssesinden dolayı tramvayın önüne geçtiğinde tramvayı durduracağı kesin olan- bir başka birey vardır. Denek bu durumda ne yapacaktır? Tramvayın önüne köprüdeki büyük cüsseli bireyi atıp 5 kişinin ölümünü engelleyecek midir? Aslında bakıldığında her iki senaryoda da denek, 1 kişinin ölümüne yol açarak diğer 5 kişiyi kurtarma şansına sahip. Ya da 1 kişinin ölümüne sebep olmayarak 5 kişinin ölümünü izleme şansına sahip. Başka bir anlatımla, her iki senaryonun da sonuçları aynıdır. Harvard Üniversitesi’nden Marc Hauser bu deneyi 300 bin kişi üzerinde denemiş ve ilk senaryoda deneklerin büyük kısmı tramvayı 2 no’lu hatta yöneltmiş yani 5 kişiyi kurtarmak için 1 kişinin ölümüne sebebiyet vermiştir. İkinci senaryoda ise çok büyük bir çoğunluk 1 kişiyi köprüden tramvay önüne atmamayı yani 5 kişinin ölümünü izlemeyi tercih etmiştir. Ahlaki-etik olarak hangisinin doğru olduğu etik bilimciler/düşünürler tarafından geçmişten bugüne tartışılmıştır. Philippa Foot, ahlaki yükümlülük açısından “negatif görev/yükümlülük/hak” ve “pozitif görev/yükümlülük/hak” ayrımına dikkat çekmiş; “müdahil olmama görevi”ni negatif yükümlülük/hak, “bir şeyi sağlama görevi”ni pozitif yükümlülük/hak olarak tanımlamıştır.[7] Ve bu ayrıma göre, negatif görev yani müdahil olmama yükümlülüğünün ihlali ahlaki açıdan tahammül edilemezken, pozitif görev yani bir şeyi sağlama yükümlülüğünün ihlali ahlaki açıdan daha tahammül edilebilir niteliktedir. Tersten düşünülürse, bir ölüme sebebiyet vermek ile bir ölümü engellememek birbirinden farklı etik-ahlaki sonuçlar doğuracaktır. Foot’a göre ölüme sebebiyet vermek, yani yaşama hakkına müdahale etmeme yükümlülüğünü ihlal etmek(negatif yükümlülük/görev ihlali) etik-ahlaki kabul edilmezken, ölümü engellememek yani yaşama hakkını sağlama yükümlülüğünü ihlal etmek(pozitif yükümlülük/görev ihlali) etik-ahlaki açıdan nispeten kabul edilebilirdir. Nitekim Kant’ın etik-ahlak felsefesinde de sonucun değil, amacın etik olarak değerlendirilmesi gerektiği ileri sürülmektedir. Buna göre de iyi irade/niyet, olumsuz sonuç doğursa dahi etik açıdan kabul edilebilir yani ahlaki olduğu söylenebilir. Peki Marc Hauser’in trolley ikilemindeki ilk senaryoda 5 kişiyi kurtarıp 1 kişinin ölümüne sebebiyet veren insanlar etik-ahlaki açıdan zayıf insanlar mı? Siz, tramvayı 2 no’lu hatta yönelttiniz! Siz etik-ahlaki açıdan zayıf mısınız? Bu sorunun cevabı şüphesiz ki “hayır”. İki senaryo arasındaki farklılığın nedeni nörolojik. Yapılan nörolojik araştırmalara göre deneklerin her iki senaryoda da farklı karar vermelerine sebep olan şey, “öldürülen 1 kişiye olan yakınlık/uzaklık” yani duygusal düşünce. Şöyle ki, ilk senaryodaki kararımız, gündelik faydacı kararları aldığımız beynimizin “dorsolateral prefrontal korteks”[8] kısmı ile verilmektedir. İkinci senaryodaki bizi öldürmekten alıkoyan kısım ise beynimizin “anterior singulat korteks”[9] kısmıdır. Her iki senaryonun sonucu aynı olmasına rağmen farklı kararlar vermemiz, öldüreceğimiz o 1 kişiye olan yakınlığımı başka bir anlatımla o kişinin soyutluğu ile ilgilidir. Bu soyutluk/yakınlık-uzaklık ve empati kurabilme mesafesi sebebiyle her iki senaryoda da beynin farklı kısımları ile karar verilmektedir.

Otonom araçlara tekrar geri döndüğümüzde sözgelimi Tempe kazasında, bir varsayım olarak, otonom aracın yayayı gördüğünü ve fakat fren yaparak çarpmaktan kaçamayacağının kesin olduğunu düşünelim. Aynı zamanda yolun sağ ve sol kenarında da yayalar olduğunu kabul edelim. Otonom araç bu durumda nasıl bir karar vermelidir? Siz olsanız bu durumda nasıl bir karar verirdiniz? Ya da düşünerek karar verecek yeterli süreniz var mı? Kanımızca bu durumda bir insan, düşünerek karar verecek yeterli süresi olmadığından belki aynı 10 deneyimin 10’unda da farklı bir refleks gösterirdi. Ancak otonom bir araç, bu gibi durumlarda belli bir algoritma çerçevesinde her 10 deneyimin 10’unda da aynı kararı verebilir. İşte bu nedenle tramvay ikilemini otonom araçlar için daha derin ve daha titiz değerlendirmek, tartışmak gerekmektedir. Zira varılacak etik-ahlaki sonuç, belki de alınacak evrensel bir karar ile otonom araçların trolley ikilemi halinde nasıl bir yöntem izleyeceği yeknesak olarak belirlenecektir. Belirlenecek ilk kuralın ise: “otonom araç asla trafik kurallarını ihlal etmez” olması gerekmektedir. Bu durumda trafik kurallarına aykırı olarak yola çıkan bir yaya varsa, ve yayaya çarpmamak için yapılacak tek şey sol taraftaki kaldırımda yürüyen bir yayaya çarpmaksa; bu noktada otonom aracın algoritmasının “trafik kurallarını ihlal etmeyen üçüncü bir kişiye zarar vermeden kazadan kaçınmak” olması gerekmektedir. Üçüncü bir kişiye zarar vermeden kazadan kaçınmak imkansız ise, “trafik kuralını ihlal eden yayaya en az zarar verecek biçimde çarpmak” kanımızca kaçınılmaz yöntem olmalıdır. Tramvay ikilemindeki ilk senaryoda benimsenen çoğunluk tercihinin aksine, kanımızca “olağan”ı engellemek için “olağan üstü” bir durum yaratmak etik-ahlaki açıdan uygun olmayacaktır. Daha radikal olmak gerekirse, trafik kuralını ihlal eden yaya 16 yaşında bir çocuk olsa dahi, otonom araç algoritmasının kaldırımdaki 80 yaşındaki yaşlıya çarpmamasını sağlayacak şekilde yazılması gerekmektedir. Bu noktada Philippa Foot’un “negatif ödev” görüşüne katılmakla birlikte, “öldürmektense ölüme seyirci kalma”nın etik açıdan daha uygun olacağı görüşündeyiz. Kaldı ki otonom araçlar geliştikçe ve yaygınlaştıkça bu şekilde trafik kazalarının olmayacağı kanaatindeyiz. Zira belirttiğimiz gibi, insan, aynı 10 deneyimin 10’unda da farklı karar verebilecektir. Çünkü ani durumlarda insan beyni refleksif hareket etmektedir. Halbuki yapay zeka, refleksif hareket edemeyeceğinden, sensörlerinden aldığı yardım ve algoritması vasıtasıyla aynı 10 deneyimin 10’unda da aynı şekilde hareket edecek, bu da bir süre sonra trafik kazalarını kaçınılmaz bir şekilde –yayalar trafik kurallarını ihlal etmezse- azaltacaktır.

Son olarak burada cezai sorumluluktan da bahsetmemiz gerekmektedir.

(Öncelikle belirtelim ki cezai sorumluluk açısından fikirlerimizin tümü “tam otonom” ve “operatör bulunmayan” araçlar için geçerlidir.) Bu gibi kazalarda, sürücünün insan olduğu durumlarda, kast ve taksir, kusura göre belirlenmektedir. Sürücü, güvenli sürüş ve trafik kurallarını ihlal etmişse, ihlalinin ağırlığına ve fiilin neticesine (ölüm mü gerçekleşti yaralanma mı) bağlı olarak taksirle öldürme ya da olası kastla/kasten öldürme veya neticesi sebebiyle ağırlaşmış yaralama veyahut taksirle yaralama ya da olası kastla/kasten yaralama suçlarından yargılanmaktadır. Yukarıda bahsettiğimiz üzere, yeknesak-evrensel otonom araç kuralının başında “otonom araç asla trafik kurallarını ihlal etmez” gelirse ve otonom araç algoritmaları yeknesak şekilde bu kuralı sağlayacak biçimde oluşturulursa, otonom bir aracın sebebiyet verdiği kazanın “kast” derecesinde olması ve hatta “taksir” derecesinde dahi olması söz konusu olmayacak; bilakis kazanın sebebi, mağdurun kusurlu eylemi olacaktır. Bir ihtimal olarak otonom aracın yazılımında/algoritmasında oluşan bir hata sebebiyle böyle bir kaza gerçekleşmişse, bu durumda da genel ceza hukuku bağlamında söz konusu yazılım/algoritma hatasını objektif isnadiyet ve öngörülebilirlik prensipleri çerçevesinde değerlendirerek yazılımcının/algoritma geliştiricisinin ceza hukuku bağlamında sorumluluğuna gidilebilecektir.

                                                                                                                                                                 05.04.2018

                                                                                                                                                             Av. Arda Altınok

                                                                                                                                                    Taygün & Özmestik Hukuk Bürosu

[1] http://www.bbc.com/turkce/haberler-turkiye-43463047

[2] http://www.bbc.com/news/world-us-canada-43604440

[3] http://www.bbc.com/turkce/haberler-dunya-43500904

[4] https://www.citylab.com/transportation/2018/03/former-uber-backup-driver-we-saw-this-coming/556427/

[5]https://www.forbes.com/sites/patricklin/2017/04/05/heres-how-tesla-solves-a-self-driving-crash-dilemma/#30b371476813

[6] http://cyberlaw.stanford.edu/blog/2013/07/ethics-saving-lives-autonomous-cars-are-far-murkier-you-think  Ayrıca bkz. Patrick Lin/Keith Abney/George A. Bekey, Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press.

[7] Philippa Foot, “Killing and Letting Die: Moral Dilemmas: and Other Topics in Moral Philosophy”, University Press Scholarship Online Oxford Scholarship Online, s. 4. Çevrimiçi: https://warwick.ac.uk/fac/soc/philosophy/undergraduate/modules/ph137/2014-15/foot_-_killing_and_letting_die.pdf (05.04.2018)

[8] https://sinirbilim.org/dorsolateral-prefrontal-korteks/

[9] https://sinirbilim.org/anterior-singulat-korteks/ , https://evrimseltip.org/2018/01/08/anterior-singulat-korteks-%E2%80%A2-ansiklopedik-bilgi/