Çocuk cinsel istismar materyalinin (CSAM) yayılmasını önlemek büyük internet şirketleri için bir öncelik. Ancak, kötü niyetli içeriği tanımlamak ve kaldırmak zorunda olan insan moderatörler için bu zorlu bir iş. Bu yüzden, Google bu kişilere yardımcı olmak için tasarlanmış ücretsiz yapay zeka (AI) yazılımını yayınladı.
Bu alandaki çoğu teknoloji çözümü, daha önce tespit edilen malzemenin görüntüleri ve videolarını kontrol ederek çalışıyor. Örneğin, Microsoft tarafından geliştirilen, Facebook ve Twitter gibi şirketler tarafından dağıtılan PhotoDNA. Bir “tarayıcı” olarak bilinen bu tür bir yazılım, önceden tanımlanmış olan CSAM'ları paylaşan kişileri durdurmanın etkili bir yolu. Ama daha önce yasadışı olarak işaretlenmemiş materyalleri yakalayamıyor. Bunun için, insan moderatörlerin içeriğe bakmaları ve bunları gözden geçirmeleri gerekiyor.
Bu, Google'ın yeni AI aracının yardımcı olacağı yer. Şirketin makine görüş alanındaki uzmanlığını kullanıp,bayraklı görüntü ve videoları sıralayıp, “inceleme için en olası CSAM içeriğini önceliklendirerek” moderatörlere yardımcı oluyor. Bu, daha hızlı bir inceleme sürecine izin veriyor. Google'ın dediğine göre, AI aracı bir moderatörün “aynı dönem içinde yüzde 700 daha fazla CSAM içeriği üzerinde geçmesine” yardımcı oldu.
İnternet İzleme Vakfı'nın (IWF) CEO'su Fred Langford "Bizim gibi sınırlı kaynağı olan ekipler sadece insan gücü ile çalışıyor. Bu uygulama sayesinde daha kolay bir şekilde içeriği temiz tutacağız. Sanırım bazı durumlarda tamamen otomatikleştirilmiş bir şey oluşturmanın sadece bir iki yıl uzağındayız." dedi.