HABER MERKEZİ - Teknolojinin gelişmesiyle birlikte çocuklara yönelik “çevrimiçi istismarın” yeni alanlar kazandığına dikkat çeken Veri Analisti James Stevenson, “Yapay zeka ile üretilmiş çocuk istismarı materyalleri (AI-Gen CSAM) büyük bir endişe kaynağıdır. Tüm ülkeler, topluluklar ve kuruluşlar harekete geçmeli, ebeveynler çocuklarını yakından takip etmelidir” uyarısında bulundu.
Yapay zeka (AI-YZ) teknolojisi, ilerledikçe ve hayatın çeşitli yönlerine entegre oldukça oluşturduğu potansiyel riskler de genel bir endişe yarattı. Zararlı amaçlar için kullanılma potansiyelinin artması uzmanların, daha sıkı düzenlemeler yapılması çağrısında bulunmalarına neden oldu. Risk grubundaki kesimlerin başında ise özellikle çocuklar bulunuyor. İnsan gibi konuşabilen yapay zeka teknolojileri, çocukların davranış ve karar alma süreçlerine önemli ölçüde etki edebiliyor. Özellikle 10 yaş altındaki çocuklar, yapay zeka uygulamalarını gerçek bir insan gibi algılayarak, yanlış yönlendirmelere ve her türlü tehlikeye açık hale geliyor.
2023 yılında “Into The Light” adıyla yayımladığı Çevrimiçi Çocuk İstismarı raporunda bu duruma dikkat çeken Edinburgh Üniversitesi Childlight Küresel Çocuk Güvenliği Enstitüsü, 157 ülkede en az 300 milyondan fazla çocuğun “çevrimiçi cinsel istismara” maruz kaldığını açıkladı. 157 ülkenin resmi kurumlarından alınan 36 milyon veri, anket ve 125 akademik çalışmanın sonucunda hazırlanan rapora göre, her 8 çocuktan biri “çevrimiçi cinsel istismara” maruz bırakıldı.
2024 yılına dair raporunu yılın sonbahar aylarında açıklamaya hazırlanan enstitünün veri analisti James Stevenson, çocukları bekleyen tehlikeleri Mezopotamya Ajansı’na (MA) anlattı.
DÜNYA İÇİN TEHLİKE
En son yayınlanan raporda “çevrimiçi çocuk istismarı” Batı Avrupa ülkelerinde yüzde 11, ABD’de yüzde 11, Birleşik Krallık’ta yüzde 7 ve Avustralya’da yüzde 7,5 olarak kayıtlara geçti. Bu durumun dünya genelinde bir sorun olduğuna dikkat çeken Stevenson, “Yüksek gelirli ülkelerde sayının yüksek olmasının bir nedeni hem çocukların hem de faillerin internete daha fazla erişimi olmasıdır. Ayrıca bu ülkeler genellikle interneti destekleyen birçok şirketin bulunduğu yerlerdir. Bu nedenle istismar materyalleri çevrim içi paylaşıldığında, istismar başka bir yerde gerçekleşmiş olsa bile içerikler çoğunlukla bu ülkelerdeki sunucularda saklanır” diye belirtti.
NEDEN SAVAŞ VE KRİZLER
Son dönemlerde dünyanın bir çatışma hali içinde olduğunu söyleyen Stevenson, bu durumun “çevrimiçi çocuk istismarı”nın artmasına neden olduğunun altını çizdi. Savaşlar nedeniyle çocukların teknoloji sömürüsünü giderek daha fazla maruz kaldığını belirten Stevenson, “Childlight’ın son araştırmaları, çatışma ve istikrarsızlık yaşayan ülkelerde barındırılan çocuklara ait cinsel istismar materyallerinde (CSAM) endişe verici bir artış olduğunu ortaya koydu. Ukrayna ve Kutsal Topraklar bu anlamda en kaygı verici örnekler arasında. Savaşlar ve çatışmalar, toplulukları kaosa sürüklerken, failler bu durumdan faydalanıyor, eğitim, sosyalleşme ve oyun için çevrim içi ortamlarda daha fazla zaman geçiren çocukları hedef alıyor” dedi.
ÜLKELERDEKİ VERİLER
Bazı ülkelerin savaş öncesi ve sonrası “çevrimiçi çocuk istismarı” verilerine değinen Stevenson, şunları aktardı: “Kayıp ve İstismar Edilen Çocuklar Ulusal Merkezi (NCMEC) tarafından ölçülen verilere göre, Ukrayna’da 2022'de 52 bin 328 olan CSAM yükleme sayısının 2023’te 105 bin 117’ye çıktığını bildiriyor. İsrail’de aynı dönemde bu sayı 22 bin 250’den 71 bin 189’a yükseldi. Filistin topraklarında ise yüzde 148 artarak 28 bin 452’den 70 bin 472’ye çıktı. Buna karşılık, dünya genelinde CSAM barındırma vakaları bir yıl içinde yüzde 13 artarak, 32 milyon 59 bin 29’dan 36 milyon 210 bin 368 oldu. 2020-2023 arasında sürekli kriz yaşayan Venezuela'da bildirilen vakalarda yüzde 195 artış gözlemlendi. Benzer bulgular kıtlık ve doğal afet yaşayan ülkelerde de görülüyor. Afganistan’da CSAM yüklemeleri bu dönemde 81 bin 789 vaka artarak yüzde 170 yükseldi. Çatışma ve kriz ortamları, TF-CSEA'nin gölgelerde gelişmesi için ideal koşulları yaratıyor ancak bu hala göz ardı edilen bir acil durum. Eğer harekete geçmezsek, daha fazla çocuk zorla istismar edilecek, şantaja uğrayacak ve kalıcı zararlara maruz kalacak. Hükümetler, insani yardım kuruluşları ve teknoloji şirketleri, en savunmasızları hedef alan faillerin bu boşlukları kullanmasını engellemek için acilen birlikte çalışmalı.”
İstismar verilerini toplarken birçok sorunla karşılaştıklarını dile getiren Stevenson, “Çocuk cinsel istismarı verileri genellikle polis, sağlık ve sosyal hizmetler gibi çeşitli kurumlara dağılmış durumda olduğu için güvenilir ve doğru sayılar toplamak zor. Teknoloji kaynaklı çocuk cinsel istismarı ve sömürüsü (TF-CSEA) konusunda, küresel kuruluşlardan gelen ‘büyük veriler’i kullanmak daha tutarlı bir tablo elde etmemizi sağlıyor. Eğer istismarı önlemek istiyorsak sadece olaylar gerçekleştikten sonra tepki vermek değil, önceden iyi veri toplayarak harekete geçmek önemli. Bu kamu sağlığı yaklaşımı, çocukları çevrim içi ve çevrim dışı istismardan korumak için hayati önemde” dedi.
GİZLİ BİR PANDEMİ
“Çevrimiçi istismarın” giderek yaygınlaştığına dikkati çeken Stevenson, “Teknoloji kaynaklı çocuk cinsel istismarı ve sömürüsü (TF-CSEA) gizli bir pandemidir. Tüm ülkeler, topluluklar ve kuruluşlar harekete geçmelidir. Nasıl ki bir hastalığın belirtilerini tedavi etmektense aşıyla önlemek daha etkiliyse, çocuk cinsel istismarını da gerçekleşmeden önce önlemeliyiz. Kamu sağlığı temelinde çözümler üretilmelidir. Şimdi bu bilimsel temelli yaklaşımı çocuk cinsel istismarını bitirmek için kullanma zamanı. Eğer bunu bir halk sağlığı, acil durum olarak ele alırsak, çocuklar için daha güvenli bir dünya kurabiliriz. Ancak şimdi harekete geçmeliyiz çünkü çocuklar bekleyemez” çağrısında bulundu.
ÇOCUKLARI KORUMA ESAS ALINMALI
“Çevrimiçi istismarı” engellemede teknoloji firmalarına da sorumluluk düştüğünü hatırlatan Stevenson, “Teknoloji şirketleri güvenliği tasarıma entegre etmeli, platformlarını ve ürünlerini çocuk korumasını merkeze alarak inşa etmelidirler. Sonradan düşünerek değil. Bu, uçtan uca şifreleme ya da canlı yayın gibi özelliklerin piyasaya sürülmeden önce risklerinin değerlendirilmesini ve istismarı önleyecek güvenlik önlemlerinin yerleştirilmesini içerir. Sorumlulukları yalnızca yasa dışı içerik raporlandıktan sonra kaldırmakla bitmez, bu içeriklerin en başta platformda yer almaması sağlanmalıdır. Çocukları cinselleştiren içerikler yalnızca yasal sınıra göre değil, çocuklara verdiği zarara göre kaldırılmalıdır. Eğer çocuklara zarar veriyorsa, bu müdahale için yeterli nedendir” diye belirtti.
YENİ TEHLİKE YAPAY ZEKA
Teknolojinin gelişmesiyle birlikte çocuklara yönelik “çevrimiçi istismarın” yeni alanlar kazandığına dikkat çeken Stevenson, şöyle devam etti: “Yapay zeka ile üretilmiş çocuk istismarı materyalleri (AI-Gen CSAM) büyük bir endişe kaynağıdır. Sahte görüntü ve videolar, çocuğun bilgisi ya da katılımı olmadan üretilebilir ve ardından bu materyallerin gerçek olduğu iddiasıyla tehdit ve şantaj aracı olarak kullanılabilir. Platformlar açısından bakıldığında, kullanıcıların birbiriyle bağlantı kurabildiği her uygulama ya da oyun çocuklar için tasarlanmış olanlar dahi kötüye kullanılabilir. Failler, büyük çocuk kullanıcı kitlesine sahip platformları özellikle hedef alıyor. Buna pek çok ebeveynin güvenli sandığı oyunlar dahil. Bu yüzden teknoloji şirketlerinin en baştan güçlü güvenlik önlemleri inşa etmesi ve ebeveynlerin çocuklarının ne kullandığını ve kimlerle iletişimde olduğunu yakından takip etmesi kritik önemdedir.”
MA / Berivan Kutlu