Podczas gdy debata toczy się nad podejściem Facebooka do reklamy politycznej – i jego decyzją, aby nie usuwać reklam zawierających fake newsy – w tym tygodniu portal społecznościowy opublikował swój najnowszy raport dotyczący egzekwowania standardów, w którym opisano wszystkie przypadki usuwania treści i działania podjęte w kwestii łamania regulaminu portalu.


Warto też wspomnieć o kilku ważnych kwestiach – po pierwsze, w przypadku treści związanych z narkotykami i bronią palną Facebook twierdzi, że znacznie poprawił metody wykrywania, umożliwiając usunięcie większej ilości treści na ten temat niż kiedykolwiek wcześniej.

https://www.socialmediatoday.com/user_media/diveimage/fb_enforce1.png

Poprawił także zdolność wykrywania treści, które naruszają jego zasady dotyczące nagości wśród dzieci:

„W trzecim kwartale 2019 roku usunęliśmy około 11,6 miliona treści, w porównaniu z pierwszym kwartałem 2019 roku, kiedy usunęliśmy około 5,8 miliona. W ciągu ostatnich czterech kwartałów aktywnie wykryliśmy ponad 99% treści, które usuwamy z powodu naruszenia tych zasad.”

Jest to w szczególności kluczowy obszar dla Facebooka i dobrze jest widzieć efekty nieustannego doskonalenia zautomatyzowanych systemów wykrywania, co idealnie uratuje od natłoku pracy również żywych moderatorów przed koniecznością przeglądania tego typu zdjęć, co może z czasem odbić się na psychice.

Facebook przedstawił również nowe informacje na temat podjętych wysiłków na rzecz usuwania treści związanych z samobójstwem i samookaleczeniem:

Facebook Community Enforcement Update

Instagram z tego punktu widzenia jest teraz kluczowym obszarem zainteresowania, co ma sens, biorąc pod uwagę popularność portalu wśród młodszych, bardziej nieświadomych użytkowników. Instagram ogłosił już jakiś czas temu, że podejmie nowe wyzwania mające na celu walkę ze zdjęciami przedstawiającymi samookaleczenia.

Facebook szczegółowo opisał również swoje działania w zakresie propagandy terrorystycznej, mówiąc, że nadal pracuje nad lepszym wykrywaniem treści związanych z promowaniem takich treści.

„Podczas gdy wskaźnik, w jakim wykrywamy i usuwamy treści związane z Al-Kaidą, ISIS i ich podmiotami powiązanymi na Facebooku, utrzymuje się powyżej 99%, wskaźnik, z jakim proaktywnie wykrywamy treści powiązane z dowolną organizacją terrorystyczną na Facebooku wynosi 98,5%, a na Instagramie 92,2%. Będziemy nadal inwestować w zautomatyzowane techniki walki z treściami terrorystycznymi, ponieważ wiemy, że ci aktorzy będą nadal zmieniać swoje metody wpływania na obywateli wielu krajów za pomocą social media.”

Raport pokazuje również, że rządy różnych krajów wysyłały zapytania o dane użytkowników częściej – ich liczba wzrosła o 16% w pierwszej połowie 2019 r.

Ponadto, chociaż poprawiły się systemy wykrywania fałszywych kont, ich liczba na platformie wzrosła w ostatnich miesiącach dość znacząco. Facebook twierdzi, że usunął 5,4 miliarda fałszywych profili w 2019 r., w porównaniu z 3,8 miliarda w zeszłym roku. Facebook szacuje również, że około 5% bazy użytkowników nadal składa się z fałszywych profili.

Facebook fake account removals

Liczba usunięć fejkowych kont pokazuje, że wskaźnik wykrywalności się poprawia, co Facebook zauważa w raporcie:

„Ponieważ blokujemy kolejne próby tworzenia fałszywych, obraźliwych kont, zanim jeszcze zostaną utworzone, mamy ich mniej do wyłączenia, w związku z czym liczba ich liczba spadła od pierwszego kwartału 2019 r. Z kont wykrytych większość została zidentyfikowana w ciągu kilku minut po rejestracji, zanim stały się one częścią populacji aktywnych użytkowników (MAU).”

Oznacza to, że Facebook nie wierzy, że na jego 2,5 miliarda MAU wpływ mają podróbki powyżej odnotowanych 5% – ale to nadal odpowiada około 125 milionom aktywnych fałszywych profili na platformie. Ponieważ coraz więcej grup aktywistów chce wykorzystać platformę do rozpowszechniania wiadomości (w tym terroryści czy trolle prorosyjskie), pozostaje to kluczowym obszarem zainteresowania specjalistów od bezpieczeństwa w Facebooku.