Sinir ağları konusundaki öncü araştırmaları nedeniyle sık sık “Yapay Zekanın Babası” olarak anılan Toronto Üniversitesi profesörü Geoffrey Hinton, kısa mühlet evvel dalın gayri resmi denetleyicisi oldu.
Öncülüğünü yaptığı alanı daha özgürce eleştirebilmek için bu bahar Google’daki işinden ayrılmıştı.
KÖTÜ YAPAY ZEKANIN DÜZGÜN YAPAY ZEKAYA KARŞI GALİP GELECEĞİNE İNANIYOR
Bu hafta Toronto’da düzenlenen Collision konferansında Hinton kaygılarını lisana getirdi. Hinton, Güzel yapay zekanın makus yapay zekaya karşı galip geleceğine inanmadığını ve ve yapay zekanın etik olarak benimsenmesinin yüksek bir maliyet getirebileceğine inandığını belirtti.
Hinton, yapay zekanın yalnızca onu yapan beşerler kadar düzgün olduğunu ve makûs teknolojinin hala kazanabileceğini sav etti. “Kötü yapay zekayı durdurmaya çalışan âlâ bir yapau zekanın denetimini ele geçirebileceğine ikna olmuş değilim” dedi.
Hinton şirketlerin ve orduların, kayıpların kolay kolay değiştirilebilen makineler olduğu savaşları “sevebileceğini” belirtiyor.
ZENGİNİ DAHA VARLIKLI YOKSULU DAHA YOKSUL YAPABİLİR!
Hinton, büyük lisan modellerinin (OpenAI’nin GPT-4’ü üzere insan gibisi metinler üreten eğitimli yapay zeka) üretkenlikte büyük artışlara yol açabileceğine inanmakla birlikte, yönetici sınıfın bunu kendilerini zenginleştirmek için kullanabileceğinden ve zati büyük olan servet uçurumunu daha da derinleştirebileceğinden telaş duyuyor. Hinton bunun “zengini daha güçlü, yoksulu daha yoksul yapacağını” söyledi.
Hinton, mevcut pek çok sorun olduğunu da kelamlarına ekledi. Hinton, önyargı ve ayrımcılığın sorun olmaya devam ettiğini, zira çarpık yapay zeka eğitim bilgilerinin adil olmayan sonuçlar üretebileceğini savunuyor. Algoritmalar tıpkı biçimde yanlış bilgileri ve ruh sıhhati problemlerini güçlendiren yankı odaları oluşturuyor.
Hinton ayrıyeten yapay zekanın yanlış bilgileri bu odaların ötesine yaymasından da kaygı ettiğini belirtti ve “Sahte olan her şeyi düzmece olarak işaretlemek önemli” olsa da, her uydurma iddiayı yakalamanın mümkün olup olmadığından emin değil. dedi.