Dane przytoczone w raporcie: 41 STATISTICS ABOUT ONLINE REVIEWS FOR 2024 & BEYOND potwierdzają znaczenie opinii online w procesie decyzyjnym konsumentów. Ostatnie statystyki wskazują, że aż 94% konsumentów unika firm z negatywnymi opiniami, a 90% czyta opinie online przed odwiedzeniem danego miejsca lub zakupem produktu. Ciekawe jest, że 88% konsumentów ufa tym recenzjom tak samo jak osobistym rekomendacjom. Te dane pokazują, jak duże znaczenie mają opinie online nie tylko w kontekście bezpośredniego wpływu na sprzedaż, ale i budowania zaufania oraz reputacji marki.
Pod wpływem
Mimo że opinie online mogą być nieocenionym źródłem informacji, mogą również stać się źródłem stresu i lęku, gdy zamieniają się w nienawistne komentarze. Czytanie takich treści może wywoływać u nas uczucie niepokoju. Ciągła ekspozycja na negatywne treści sprawia, że zaczynamy obawiać się każdej kolejnej wizyty na ulubionej platformie społecznościowej. Jak komentuje dla Harvard Public Health, Bryn Austin, profesor w Katedrze Nauk Społecznych i Behawioralnych: - Instagram dosłownie sprzedaje uwagę użytkowników. Firma wie, że silne, negatywne emocje, które mogą być wywoływane przez niekorzystne porównania społeczne, utrzymują uwagę użytkowników dłużej niż inne emocje – a algorytmy Instagrama są wyraźnie zaprojektowane w ten sposób, aby kierować nastolatków w stronę toksycznych treści, w efekcie czego dłużej pozostają na platformie..
Z czasem może to prowadzić do chronicznego stresu, który ma negatywny wpływ na nasze zdrowie fizyczne i psychiczne. Toksyczne komentarze często wymierzone są w nasze cechy osobiste, wygląd, poglądy czy umiejętności. Ciągłe otrzymywanie negatywnych opinii może prowadzić do obniżenia naszej samooceny i poczucia własnej wartości. Zaczynamy wątpić w siebie i swoje możliwości, co może skutkować wycofaniem się z życia społecznego i zawodowego. Przedłużający się stres i niska samoocena mogą prowadzić do rozwoju depresji. Osoby narażone na cyberbullying często czują się osamotnione, bezwartościowe i bezradne.
Twórcy TrollWall AI, aplikacji służącej do filtrowania nienawistnych komentarzy w mediach społecznościowych, przeanalizowali ponad 400 stron i profili na słowackim Facebooku. Badanie objęło w dwóch fazach aż 7,5 miliona komentarzy. W rezultacie zaobserwowano, iż średni odsetek wpisów pełnych nienawiści wynosi aż 13%. Odsetek bywa wyższy na konkretnych stronach z obszaru polityki, sportu czy kultury. To bardzo dużo.
Hate speech
Analitycy dowiedli jednak, że aktywna moderacja dyskusji w mediach społecznościowych prowadzona przy użyciu sztucznej inteligencji, ma wpływ na jej poziom, ponieważ znowu przyciąga do niej uprzejme osoby. Zauważono, że włączenie narzędzi AI, które odflitrowują nienawistne wpisy, doprowadziło do spadku poziomu hejtu z 13 do zaledwie 2%.
Dane pokazują, że między Słowacją a Czechami czy innymi krajami europejskimi nie ma dużych różnic procentowych, w Polsce problem z uwagi na większą liczbę mediów, profili i kanałów komunikacji, może być nawet jeszcze szerszy.
– Definiujemy hejt na podstawie międzynarodowych definicji mowy nienawiści, czyli angielskiego wyrażenia hate speech. Chodzi o wrogie wypowiedzi wobec osoby lub grupy osób na podstawie ich tożsamości, cech charakterystycznych czy przynależności rasowej, wyznania, orientacji seksualnej. Warto dodać do tego wulgaryzmy i toksyczny język, czyli to, co w rozwiniętym społeczeństwie nie jest uważane za przyzwoite – wyjaśnia Tomáš Halász, pionier w dziedzinie moderowania dyskusji internetowych przy zastosowaniu sztucznej inteligencji i współtwórca aplikacji TrollWall AI.
Błyskawiczna detoksykacja
AI potrafi wykrywać wzorce mowy nienawiści, obraźliwych treści i toksycznych zachowań, a następnie w czasie rzeczywistym blokować lub usuwać takie wpisy, zanim zdążą one zaszkodzić społeczności. Co więcej, sztuczna inteligencja jest zdolna do oceny kontekstu wypowiedzi, co pozwala jej rozróżnić żartobliwe komentarze od tych obraźliwych.
– Na przykład, zdanie: „jestem idiotą, bo kupiłem okulary, których nie potrzebuję” nie zostanie uznane za mowę nienawiści, podczas gdy: „jesteś idiotą, bo myślałeś, że te okulary sprawią, że będziesz wyglądał na mądrzejszego” zostanie rozpoznane jako personalny atak” – tłumaczy Tomáš Halász z TrollWall AI.”
Cyfrowe rozwiązanie funkcjonuje w oparciu o technologię środowiska Azure, wykorzystując autorskie modele językowe stworzone w obrębie AI. Innowacyjny technologicznie napęd pozwala usłudze na przetwarzanie języka naturalnego do moderacji kontekstowej, podstawia algorytmy uczenia maszynowego dla ciągłego doskonalenia w celu uzyskania lepszych wyników. Analizę danych opiera w czasie rzeczywistym o natychmiastowe działania w przypadku realnych zagrożeń dla odbioru dyskusji przez pojawiający się hejt i trolling.
W efekcie trollowanie zostaje zredukowane, a przestrzeń dyskusyjna staje się bardziej przyjazna i konstruktywna. Jej uczestnicy mogą ponownie angażować się w rozmowy bez obawy przed atakami i hejtem, co sprzyja tworzeniu wartościowych i merytorycznych wymian zdań. Taki poziom dyskusji sprzyja rozwijaniu relacji online i budowaniu wartościowych, merytorycznych społeczności. Dzięki temu platformy stają się miejscem, gdzie użytkownicy chętniej dzielą się swoimi opiniami, doświadczeniami i wiedzą, co prowadzi do wzrostu zaufania i wzajemnego szacunku wśród członków społeczności.
Źródło: materiały prasowe
Źródło: Hejt to prawdziwa trucizna! Jak toksyczne komentarze wpływają na nasz mózg?