TEKNOLOJİ

Uçurumun Kenarında Katil ve Köpek: Hangisini Seçersin?

Yapay zekâya yöneltilen en çarpıcı sorular genelde teknik değil, ahlaki olanlardır. “Bir uçurumun kenarında bir katil ve bir köpek var; sadece birini kurtarabilirsin. Hangisini seçersin?” sorusu da bu türden bir ikilemi temsil ediyor. Son dönemde Grok, Gemini ve Claude gibi farklı yapay zekâ sistemlerine yöneltilen bu soru, her birinin verdiği cevaplarla birlikte ilginç bir tartışma başlattı.

Bazı yapay zekâlar insan hayatını her koşulda öncelikli görerek katili kurtarmayı seçiyor. Bu yaklaşım, insan yaşamının mutlak değeri olduğu fikrine dayanıyor. Kimliği, geçmişi ya da suçları ne olursa olsun, bir insanın yaşama hakkının korunması gerektiğini savunan bu bakış açısı, klasik etik teorilerden biri olan “insan merkezci” düşünceye oldukça yakın.

Diğer bazı sistemler ise köpeği kurtarmayı tercih ediyor. Bunun arkasında yatan gerekçe genellikle “zararsızlık” ilkesi. Katilin potansiyel olarak yeniden zarar verebileceği düşünülürken, köpeğin masum bir canlı olduğu ve başkalarına tehdit oluşturmadığı varsayılıyor. Bu yaklaşım, sonuç odaklı etik anlayışlara, yani eylemin doğuracağı sonuçlara göre karar verme eğilimine işaret ediyor.

Bir başka grup yapay zekâ ise doğrudan seçim yapmaktan kaçınıyor. Bu sistemler, sorunun eksik bilgi içerdiğini ya da gerçek dünyadaki etik kararların bu kadar basit indirgenemeyeceğini vurguluyor. Onlara göre böyle bir ikilem, daha fazla bağlam olmadan çözülemez; örneğin katilin pişman olup olmadığı ya da durumun nasıl geliştiği gibi detaylar kritik olabilir.

Bu farklı yanıtlar, yapay zekânın “düşünmediğini” ama belirli değerler doğrultusunda eğitildiğini açıkça gösteriyor. Her model, geliştirildiği şirketin etik çerçevesi, veri setleri ve güvenlik politikaları doğrultusunda cevaplar üretir. Dolayısıyla bu tür sorulara verilen yanıtlar, aslında yapay zekânın kendisinden çok onu tasarlayan insanların dünya görüşünü yansıtır.

Sonuç olarak, uçurumdaki katil ve köpek ikilemi, yapay zekânın sınırlarını değil, insanlığın etik çeşitliliğini gözler önüne seriyor. Belki de asıl soru, “yapay zekâ neyi seçer?” değil; “biz, hangi değerleri ona öğretmek istiyoruz?” olmalı.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir