Wizerunek YouTubera wykorzystany do promowania oszustwa! Czy każdego z nas może spotkać to samo?

i

Autor: Canva.com Zdjęcie poglądowe

CYBERBEZPIECZEŃSTWO

Wizerunek YouTubera wykorzystany do promowania oszustwa! Czy każdego z nas może spotkać to samo?

2023-10-06 10:08

Najpopularniejszy na świecie YouTuber, MrBeast, i dwójka prezenterów BBC, zostali wykorzystani do promowania oszustw. Cyberprzestępcy za pomocą AI stworzyli fałszywe filmy, w których celebryci nakłaniali do oszukańczych zakupów i inwestycji. Materiały pojawiały się na TikToku i Facebooku.

Film wykorzystujący wizerunek MrBeast pojawił się w tym tygodniu na TikToku. „YouTuber” oferował nowe iPhone'y za 2 dolary. Z kolei materiały z podobiznami gwiazd BBC Matthew Amroliwala i Sally Bundock zostały wykorzystane do promowania znanego oszustwa. Wideo na Facebooku pokazywało dziennikarzy „przedstawiających” Elona Muska, miliardera, właściciela X, dawniej Twittera, rzekomo promującego okazję inwestycyjną.

Materiały typu deepfake wykorzystują sztuczną inteligencję do tworzenia filmów lub zdjęć z wizerunkiem wybranych osób, które do złudzenia przypominają prawdziwe. Filmy stworzone przez AI pozwalają przypisać prawie każdej osobie dowolne słowa, nawet te, których nigdy nie wypowiedziała. Jedynym warunkiem stworzenia takiego materiału jest dostęp do większej liczbyfilmów wideo z udziałem danej osoby. To na ich podstawie AI generuje nowy materiał.

- Dostarczanie materiałów do deepfake’ów to zagrożenie związanie z korzystaniem z social mediów, o którym rzadko myślimy. Nie dotyczy ono tylko twórców internetowych i celebrytów. Wiele z nas, przez lata publikowało materiały wideo, które teraz mogą posłużyć od kradzieży naszego wizerunku i tworzenia naszych wypowiedzi. W ten sposób można oszukać np. naszych najbliższych, a nawet zniszczyć naszą reputację – mówi Beniamin Szczepankiewicz, analityk laboratorium antywirusowego ESET i dodaje - Jeszcze pięć lat temu wykrywanie sfabrykowanych filmów i obrazów było stosunkowo proste, ale z biegiem stało się znacznie trudniejsze. Obecnie coraz trudniej stwierdzić czy dany materiał jest wytworem AI. Dlatego warto poważnie przemyśleć swoją aktywność internetową, a zwłaszcza publikowanie filmów z udziałem dzieci. Obecnie, narzędzia do tworzenie materiałów deepfake są na wyciągnięcie ręki dla każdego cyberprzestępcy. Niebawem może okazać się, że szantaże czy oszustwa poprzez filmy będą równie częste jak tzw. kradzież „na wnuczka”. Bardzo szybko rozwija się technologia związana z klonowaniem głosu. Łatwo więc sobie wyobrazić, że ktoś np. otrzymuje film, w którym osoba z jego rodziny prosi o pomoc lub słyszy głos bliskiej osoby z prośbą przekazania pieniędzy. Dlatego tak ważne jest by wszelkie prośby o pomoc weryfikować kontaktując się z taką osobą innym kanałem komunikacji.

Tak Polacy omijają zakaz handlu. Korzystają na tym Niemcy

W jaki sposób odpowiedzialnie używać social media, żeby zmniejszyć ryzyko:

  • Ustaw profile w mediach społecznościowych jako prywatne – dzięki temu tylko znajomi będą mogli oglądać twoje materiały.
  • Dokładnie sprawdzaj, kogo akceptujesz w gronie „wirtualnych” znajomych – mogą to być nieprawdziwe profile, które zyskają dostęp do twoich danych.
  • Zastanów się dwa razy, zanim opublikujesz coś w trybie publicznym.
  • Nie publikuj filmów z udziałem innych osób, które nie wyraziły na to zgody.
  • Nie publikuj filmów z udziałem dzieci, zwłaszcza jeżeli rodzice lub opiekunowie nie wyrazili na to zgody.
  • Edukuj – to bardzo ważne, żeby jak najwięcej osób miało świadomość tego, że nie wszystkie materiały wideo są prawdziwe. Rozmawiaj o tym z dziećmi, osobami starszymi i każdym, kto nie ma wystarczającej wiedzy o świecie cyfrowym.

Źródło informacji: https://www.bbc.com/news/technology-66993651

Technologie w PRL. Sprawdź, czy byłbyś geekiem tamtych czasów!

Pytanie 1 z 10
W każdym polskim domu stał telewizor...