Yapay Zeka'nın karar verme yetisi var mıdır? Mesela bir robota "Dünyayı koru" görevi veriliyor. Daha sonra bu robot insanların dünya için tehdit olduğuna karar vererek tüm insanları öldürmeye çalışıyor. Böyle bir durum mümkün mü?
Fotoğraf, ismini hatırlayamadığım bir sanatçının "Son İnsan" isimli eseri.
Arda Uzsert
A
Kodlamasına göre değişir, amaç iyilikse insanlık kötülük yapiyorsa insanligi tehdit olarak görmesi normal ancak insanlığa hic bir durumda zarar vermemesi gibi bir durum HATASİZ kodlanmıssa ne olursa olsun insanı oldurmeyecektir. Ama benim düşüncem şudur ki ilerde teknoloji çok gelisicek ve kusursuz kodlanamamasi ve yazilim hatalarindan ötürü yapay zekada açıklar meydana gelicek bu da insanliga zarar teşkil edicek diye düşünüyorum