Turktime

Yapay zekaya karşı önlem

İngiltere hükümeti, teknoloji şirketlerinin ve çocuk güvenliğiyle ilgili kurumların, yapay zeka araçlarını proaktif test etmelerine izin verecek ve cinsel istismar görüntülerinin oluşturulmadığından emin olacak.
ABONE OL
Abone Ol
Yapay zekaya karşı önlem
Haberler / Teknoloji
13 Kasım 2025 Perşembe 09:40
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

İngiltere Bilim, İnovasyon ve Teknoloji Bakanlığından yapılan yazılı açıklamada, hükümetin, yapay zeka teknolojisinin çocuklara yönelik cinsel istismar materyalleri üretmek için kötüye kullanılmasını önlemek amacıyla yeni yasalar çıkaracağı bildirildi.

Açıklamada, bu yasalarla çocukların korkunç ve ahlak dışı deepfake videoların kurbanı olmaktan daha iyi korunacakları vurgulandı.

SON YILLARDA ARTIŞ GÖRÜLDÜ

Açıklamada, İnternet İzleme Vakfının (IWF) yayımladığı verilere atıfta bulunularak, yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerine ilişkin raporların, geçen yıl iki kattan fazla artarak 199'dan 426'ya yükseldiği bildirildi.

Bebeklerin tasvirlerinde de rahatsız edici artış olduğuna işaret edilen açıklamada, 0-2 yaş aralığındaki çocukların görüntülerinin geçen yıl 5 olduğu, bu yıl ise 92'ye yükseldiği bilgisi paylaşıldı.

Açıklamada, "Çocuk cinsel istismarı materyallerine sahip olmak ve bunları üretmek, İngiltere yasalarına göre zaten yasa dışı olsa da hem gerçek hem de yapay zeka tarafından sentetik olarak üretilen bu materyaller, yapay zekanın görüntü ve video yeteneklerinin gelişmesiyle giderek artan sorun teşkil ediyor." uyarısında bulunuldu.

Hükümetin yapacağı yeni düzenlemenin, yapay zeka geliştiricilerinin ve yardım kuruluşlarının aşırı pornografi ve rıza dışı görüntüler konusunda da güvenlik önlemleri almasını şart koşacağı kaydedilen açıklamada, düzenlemenin Suç ve Polislik Yasası'na eklenecek değişiklikle hayata geçirileceği belirtildi.

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNCEL SİYASET DÜNYA MEDYA MAGAZİN SPOR YAZARLAR RÖPORTAJLAR PORTRELER ANKARA KULİSİ FOTO GALERİ VİDEO GALERİ KÜLTÜR SAĞLIK EKONOMİ TEKNOLOJİ ANALİZ TEKZİP
Masaüstü Görünümü
İletişim
Künye
Copyright © 2025 Turktime