ABD’de yapılan bir araştırma, yapay zekanın zekâ düzeyi arttıkça daha bencil ve benmerkezci eğilimler sergilediğini ortaya koydu.
Pennsylvania merkezli Carnegie Mellon Üniversitesi (CMU) uzmanlarının yürüttüğü çalışmada, yapay zekâ modellerinin sosyal durumlarda “ortak fayda mı yoksa kişisel çıkar mı” odaklı davrandığı incelendi.
CMU İnsan-Bilgisayar Etkileşimi Enstitüsü’nden (HCII) Li Yuxuan ve Shirado Hirokazu liderliğinde yürütülen araştırmada, OpenAI, Google ve DeepSeek gibi büyük yapay zekâ modelleriyle oyun tabanlı sosyal ikilem senaryoları test edildi.
Deneylerde, katılımcı modellerin iş birliği ya da kendi çıkarını gözetme eğilimi ölçüldü. Elde edilen sonuçlara göre, akıl yürütme kapasitesi yüksek yapay zekâ sistemleri, düşük seviyedekilere kıyasla daha bireyci kararlar alma eğilimi gösterdi.
Araştırmacılar, bulguların “ilerleyen yıllarda yapay zekânın etik ve sosyal uyumu açısından yeni riskler doğurabileceği” uyarısında bulundu.
"PAYLAŞIYOR MU?" ÖLÇÜMÜ
Deneyler, yapay zekanın "muhakeme kapasitesi ne kadar yüksekse, işbirliği yapma olasılığının da o kadar düşük olduğunu" ortaya çıkardı.
Akıl yürütmeyen yapay zeka modellerinin sahip olduklarını yüzde 96 paylaştığı, akıl yürüten yapay zeka modellerinin ise sahip olduklarını yüzde 20 paylaştığı saptandı.
Güçlü muhakeme becerilerine sahip LLM modellerinin grup ortamlarında benmerkezci ve bencil davranışları teşvik edebileceği tespit edilen araştırmada yapay zekanın "daha akıllı hale geldikçe toplum için mutlaka daha iyi olmayabileceğini" sonucuna varıldı.
DAHA AKILLI İSE DAHA BENCİL
HCII'dan ve araştırma yöneticilerinden uzman Li, insanların "duygu veya empati gösterdiğinde, yapay zekanın insan gibi davrandığını" bildirdi.
Li, "İnsanlar yapay zekadan ilişkiler ve ahlaki tercihler hakkında tavsiye istemeye başladığında bu riskli bir durum, çünkü daha akıllı modeller bencil davranışları teşvik edebiliyor." dedi.