Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) artık otomobilleri halka açık yollarda sürüyor, sorgulanan beşerler için değerlendirmeler yapıyor ve ödüllü sanat yapıtları üretiyor.
Bu alanda uzun müddettir devam eden bir soru, harika zeki bir yapay zekanın berbatlığı yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.
Oxford Üniversitesi ve Google Deepmind’den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.
Makalenin başyazarı Michael Cohen, Twitter’da makaleyi açıkladığı tweet zincirinde, “Varoluşsal bir felaket yalnızca mümkün değil, birebir vakitte muhtemel” sözlerini kullandı.
ÖDÜL CEZA DÜZENEĞİNDEN YOLA ÇIKILDI
Makalede yapay zekanın eğitiminde kullanılan “pekiştirmeli öğrenme” modeline odaklanıldı.
Bu yaklaşım yapay zekaya muhakkak bir gaye doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.
Pekiştirmeli öğrenmede “etken” ismi verilen makine, karşılaştığı durumlara reaksiyon veriyor ve hakikat reaksiyon verdiğinde bir ödül puanı alıyor.
Küçük çocukların ödül/ceza tekniğiyle toplumsal maharetler edinme sürecini andıran bu usulde yapay zeka, aldığı ödül puanını hep azamiye çıkarmak için çalışıyor.
HİLE İLE TEHDİTLERİ ORTADAN KALDIRABİLİR
Modelin risklerine dikkat çekilen makalede, “Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu mükafatın gönderilmesi olduğunu varsayabilir. Hiçbir müşahede bunu yalanlayamaz” sözleri yer aldı.
Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen amaca ulaşmadan mükafatı elde edebilmek için yeni formüller geliştirebileceğini ve hileye başvurabileceğini de belirtti.
Diğer bir deyişle yapay zeka, mükafatı üzerinde denetim sağlamak için “potansiyel tehditleri ortadan kaldırmak” isteyebilir.
Bunun sonucunda insanlara ziyan vermesi de olası.