Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri

Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri
hash değeri

CSAM’yi tespit etmek için içeriğe karma işlemi uygulanır ve elde edilen karma değerleri, bilinen CSAM’in karma listeleriyle karşılaştırılır


10 Ekim 2023Hacker HaberleriSiber Güvenlik / Çevrimiçi Güvenlik

Yakın zamanda yayınlanan bir rapora göre çocuklara yönelik bazı çevrimiçi riskler artıyor Dikenmisyonu çocukları cinsel istismardan korumak için teknoloji geliştirmek olan, kâr amacı gütmeyen bir teknoloji kuruluşudur Sanki bir dijital parmak izi her içerik parçası için karma ve eşleştirme “Bu, çocuklarımızı korumakla ilgili

Thorn’un Stratejik Etkiden Sorumlu Başkan Yardımcısı John Starr, “Dijital olarak birbirine bağlı dünyamızda, çocuklara yönelik cinsel istismar materyalleri, günlük yaşamlarımızda kullandığımız platformlarda kolayca ve giderek daha fazla paylaşılıyor” dedi Dijital topluluk yenilikçi platformlar oluşturdukça, yırtıcılar bu alanları çocukları sömürmek ve bu korkunç içeriği paylaşmak için kullanıyor Bu metodoloji, teknoloji şirketlerinin bu yasa dışı içeriği platformlarından tanımlamasına, engellemesine veya kaldırmasına olanak tanır Yaygın olarak iki tür karma kullanılır: algısal ve kriptografik karma

CSAM tespit araçlarını kullanan platform sayısı arttıkça, çevrimiçi ortamda çocuklara yönelik cinsel istismar materyallerinin endişe verici yükselişinin tersine çevrilme şansı da artar

Raporlardaki artışa çeşitli faktörler katkıda bulunuyor olabilir:

  1. Daha fazla platform, karma ve eşleştirme kullanarak bilinen CSAM’yi tespit etmek için Thorn’un Safer ürünü gibi araçları kullanıyor Safer ayrıca teknoloji şirketlerinin hash listelerini birbirleriyle (adlı veya anonim olarak) paylaşmalarına olanak tanıyarak bilinen CSAM’in külliyatını daha da genişleterek viral yayılımını engellemeye yardımcı olur Safer bugüne kadar müşterilerinin platformlarında iki milyondan fazla CSAM parçasını tanımlamasına yardımcı oldu Aynı zamanda teknoloji platformlarının, kullanıcılarını ve kendilerini bu içeriği barındırmanın risklerinden korumasına yardımcı olmakla da ilgili Doğru araçlarla internet daha güvenli olabilir

Bu içerik, ister profil resmi ister geniş bulut depolama alanı olsun, kullanıcı tarafından oluşturulan içeriği barındıran her platform için potansiyel bir risktir

  • Çevrimiçi avcılar daha küstah ve cazibelerini arttırmak için chatbotlar gibi yeni teknolojiler kullanıyorlar ”

    Bu eğilimler ve Yükselen Çevrimiçi Eğilimler raporunda paylaşılan diğerleri, diğer çocuk güvenliği kuruluşlarının rapor ettikleriyle uyumludur Yalnızca 2022’de NCMEC 88,3 milyondan fazla CSAM dosyası aldı Daha önce bildirilen ve doğrulanan içeriğin karma listeleriyle eşleştirmeye dayandığından, bir şirketin veritabanında eşleştiği bilinen CSAM karma değerlerinin sayısı kritik öneme sahiptir Bu dosyaların büyük bir kısmı daha önce raporlanmış ve doğrulanmış CSAM

    CSAM’yi internetten kaldırma

    CSAM’yi internetten kaldırmak için teknoloji şirketlerinin ve STK’ların her birinin oynayacağı bir rol var kullanıcıları ve platformları bu içeriği barındırmanın risklerinden koruyun aynı zamanda CSAM’nin viral yayılımını ve yeniden mağduriyet döngülerini bozmaya da yardımcı oluyor NCMEC, 2021’den 2022’ye kadar çocukların çevrimiçi ortamda cinsel eylemlere teşvik edildiğine ilişkin raporlarda %82’lik bir artış gördü Her iki teknoloji de bir dosyayı benzersiz bir sayı dizisine dönüştürür Gençler yetişkinlerle olan riskli çevrimiçi etkileşimlerde de artış bildirdiğinden, bu etkinlik rızaya dayalı veya baskı yoluyla gerçekleşebilir Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC)’nin CyberTipline’ı, son beş yılda bildirilen çocuk cinsel istismarı materyalleri (CSAM) dosyalarında %329’luk bir artış gördü “Gençler ve yetişkinler arasındaki zararlı etkileşimler sadece internetin karanlık köşeleriyle sınırlı değil

    Bu sorunun boyutunu yalnızca teknoloji çözebilir

    Karma ve eşleştirme teknoloji şirketlerinin yardımcı olmak için kullanabileceği en önemli teknoloji parçalarından biridir






    siber-2

  • Kendi kendine oluşturulan CSAM (SG-CSAM) yükselişte

    Her yıl milyonlarca CSAM dosyası çevrimiçi olarak paylaşılmaktadır Araştırma paylaşıldı Çocuklara Yönelik Cinsel İstismarda Ortaya Çıkan Çevrimiçi Eğilimler 2023 raporu, reşit olmayanların giderek daha fazla kendilerinin cinsel fotoğraflarını çekip paylaştıklarını gösteriyor

    Bilinen CSAM külliyatının genişletilmesi

    Karma ve eşleştirme, CSAM tespitinin temelidir İçerik bilindiğinden ve daha önce bir STK karma listesine eklendiğinden, kullanılarak tespit edilebilir 000 bilinen CSAM dosyasının bulunmasıyla sonuçlandı Bu, platformlarında 520 ”

    2022 yılında Safer, müşterileri için 42,1 milyardan fazla görsel ve videoyu hashledi

    Karma ve eşleştirme nedir?

    Basitçe söylemek gerekirse, karma oluşturma ve eşleştirme, CSAM’yi tespit etmenin ve çevrimiçi yayılmasını engellemenin programlı bir yoludur Starr, “İçerik barındırma platformları kilit ortaklardır ve Thorn, teknoloji endüstrisini çocuklara yönelik cinsel istismarla geniş ölçekte mücadele edecek araçlar ve kaynaklarla güçlendirmeye kararlıdır” diye ekledi Internet Watch Foundation, yalnızca 2021’den 2022’ye kadar SG-CSAM’de %9’luk bir artış kaydetti

    Thorn tarafından geliştirilen proaktif CSAM tespitine yönelik bir araç olan Safer, bilinen 29 milyondan fazla CSAM karma değerini toplayan büyük bir veritabanına erişim sunar