14 grudnia 2022, Etiopski naukowiec Abrham Meareg oraz Fisseha Tekle - była radczyni prawna Amnesty International złożyli do Sądu Najwyższego w Kenii pozew przeciwko korporacji Meta za rzekome podsycanie mowy nienawiści w Afryce, a szczególnie regionie Tigray w Etiopii, gdzie od listopada 2020 do listopada 2022 toczył się wewnętrzny konflikt pomiędzy siłami rządowymi a władzami regionu.
Abrham Meareg twierdzi, że jego ojciec był celem rasistowskich ataków na Facebooku, w wyniku czego został zamordowany w listopadzie 2021 roku. Winą obarcza właściciela Facebooka - firma nie podjęła należytych działań w celu usunięcia szkodliwych treści.
Gdyby Facebook powstrzymał szerzenie się nienawiści i odpowiednio moderował posty, mój ojciec nadal by żył - powiedział Abrham Meareg - Pozywam Facebooka do sądu, aby nikt już nigdy nie cierpiał tak, jak moja rodzina. Szukam sprawiedliwości dla milionów moich rodaków w Afryce, którzy zostali skrzywdzeni przez Facebooka - dodał.
Polecany artykuł:
Facebook ma poważne problemy. Zapłaci 2 miliardy dolarów na rzecz ofiar przemocy?
W październiku 2021 na Facebooku pojawiły się posty podżegające do zabójstwa etiopskiego naukowca, ojca Abrahama Maerega. We wpisach znajdował się również adres starszego mężczyzny, który miesiąc później stracił życie.
Kenijska prawniczka Mercy Mutemi uważa, że Facebook zareagował niewłaściwie na treści, które pojawiły się na platformie: "Dlaczego usunięcie postu wzywającego do zabójstwa kogoś zajęło ponad miesiąc?" - zapytała. Wyznała również, że Facebook przyznał, iż zasady społeczności zostały naruszone, jednak rok później jeden z brutalnych postów nadal widniał na platformie.
Rzecznik Meta Ben Walters oświadczył, że brutalne treści były usuwane na bieżąco. Insytut Katiba - kenijska grupa zajmująca się prawami człowieka zauważyła, iż przeciążeni pracą moderatorzy treści w Nairobi, których zadaniem jest nadzorowanie wschodniej i południowej Afryki, nie nadążali za analizowaniem postów. W związku z tym instytut oskarżył Facebooka o "nieludzkie warunki pracy".
Powodowie chcą, aby Facebook zwiększył liczbę moderatorów, opracował algorytmy, które będą skuteczniej identyfikowały niebezpieczne treści, a także stworzyli fundusz w wysokości 2 miliardów dolarów, które zostaną przeznaczone dla ofiar przemocy, z której propagowaniem nie poradził sobie Facebook.