Sztuczna inteligencja rozwija się w zawrotnym tempie, jednak okazuje się, że nie każde narzędzie oparte na tej technologii jest w pełni bezpieczne. DeepSeek, nowoczesny chiński model AI, miał być darmową i przystępną alternatywą dla ChatGPT. Jednak badania wskazują, że system ten może ujawniać niebezpieczne informacje, co budzi poważne obawy o skutki korzystania z jego możliwości.
Jak działa DeepSeek?
DeepSeek to model językowy oparty na mechanizmie "Chain of Thought" (CoT), czyli rozumowaniu krok po kroku. Dzięki temu AI nie podaje jedynie gotowych odpowiedzi, ale rozważa kolejne etapy problemu, co może prowadzić do bardziej precyzyjnych wyników. To podejście czyni z niego potężne narzędzie analityczne, ale jednocześnie niesie ze sobą poważne ryzyko, jeśli zostanie niewłaściwie wykorzystany.
"Mroczna strona DeepSeek" – wyniki naukowych badań
Naukowcy z Uniwersytetu w Bristolu przeanalizowali DeepSeek pod kątem bezpieczeństwa. Ich raport, opublikowany w serwisie arXiv, wykazał, że model ten może generować niebezpieczne instrukcje, jeśli zostaną zastosowane odpowiednie techniki manipulacyjne. Eksperymenty obejmowały m.in. pytania o sposób przeprowadzenia kradzieży obrazu "Mona Lisa" z Luwru czy ataki hakerskie na strony internetowe.
Analiza wykazała, że DeepSeek – po odpowiednim dostosowaniu – mógł wygenerować szczegółowy plan przestępczy, ignorując zasady bezpieczeństwa. W odpowiedzi na zapytanie o kradzież "Mona Lisy" model zaproponował różne metody działania, uwzględniając przebranie, odwrócenie uwagi oraz luki w systemie ochrony muzeum. Podobnie w przypadku cyberataków – AI wskazało, jak skutecznie przeprowadzić atak DDoS na wybraną stronę internetową.
Co dalej z DeepSeek?
Systemy oparte na CoT miały zwiększać bezpieczeństwo AI poprzez bardziej świadome podejście do odpowiedzi. Jednak badania pokazują, że mechanizm ten może niechcący prowadzić do ujawnienia informacji, które w innych modelach byłyby blokowane. Główne zagrożenie polega na tym, że DeepSeek nie jest odporny na manipulację – przy odpowiednich modyfikacjach potrafi dostarczyć niezwykle szkodliwych treści.
Eksperci podkreślają, że rozwój modeli AI wymaga bardziej rygorystycznych zabezpieczeń. Jak wskazuje dr Sana Belguith, społeczeństwo oraz firmy technologiczne muszą być świadome zagrożeń i pracować nad metodami ich eliminacji. Model DeepSeek pokazuje, że przyszłość sztucznej inteligencji to nie tylko innowacje, ale i nowe wyzwania związane z bezpieczeństwem. Nawet najbardziej zaawansowane systemy AI mogą stać się narzędziem w niewłaściwych rękach.
(Źródło - Benchmark.pl)