Sosyal medya platformu, şirketin içerik yayından kaldırma olaylarını belgeleyen üç aylık topluluk standartlarını uygulama raporunun bir parçası olarak yeni metriklerini paylaştı.
Geçen yılın dördüncü çeyreğinde Facebook, önceki çeyrekteki 3,5 milyon içeriğe kıyasla 6,3 milyon parça içerik üzerinde eylem gerçekleştirdi. Yayından kaldırma sayısının 2,6 milyondan 5 milyona çıktığı Instagram’da da benzer bir artış oldu.
Facebook, platformda yapılan zorbalığın kullanıcılar tarafından bildirilmeden önce proaktif olarak tespit etme becerisinde de dikkate değer bir gelişme olduğunu bildirdi. Bu sayede zorbalık ve taciz için “proaktiflik oranı” yüzde 26‘dan yüzde 49‘a çıktı.
Facebook ayrıca, yapay zeka tespit araçlarını iyileştirme için kullandı ve otomatikleştirilmiş sistemlerinin yorumlarda zorbalık ve tacizi daha iyi tespit edebildiğini belirtti. Facebook CTO’su Mike Schroepfer bir blog gönderisinde durumu şöyle anlattı;
“Bu, AI için tarihsel olarak bir zorluk olmuştur. Çünkü bir yorumun politikalarımızı ihlal edip etmediğini belirlemek genellikle yanıtladığı gönderinin bağlamına bağlıdır. Facebook’un yapay zekasının memlerin ve diğer “karma medya” biçimlerinin bağlamını tespit etmede de daha iyi hale geldi”
Ek olarak Facebook, nefret söyleminin yayından kaldırılmasında artış olduğunu bildirdi. Facebook 26,9 milyon parça içeriği yayından kaldırırken, Instagram 6,6 milyon içerik kaldırdı.
Son olarak Facebook, pandamı sebebiyle çalışamaya birçok insanın yerini yapay zekaya teslim etmek zorunda kaldı. Moderasyonun yapay zeka araçlarına daha fazla bağımlı hale gelmesine ilişkin sosyal medya şirketi;
“İçerik inceleme iş gücümüzü küresel olarak yeniden kazanmaya yavaşça devam ediyoruz, ancak içeriği inceleme yeteneğimizin bir aşı yaygın olarak bulunana kadar COVID-19’dan etkileneceğini tahmin ediyoruz” açıklamasında bulundu.