ChatGPT „zwariował”
Wspomniany powyżej błąd został po raz pierwszy wykryty na subreddicie ChatGPT, który jest pełen postów zgłaszających „nonsensowne” odpowiedzi. Jeden z postów nosi tytuł „To było jak obserwowanie, jak ktoś powoli wariuje”, gdzie reakcja zaczyna się od mocnego, ale powoli zaczyna przechodzić w absolutny nonsens. Wygląda na to, że te halucynacje powodują, że sztuczna inteligencja ucząca się języka po prostu zaczyna używać wyrażeń bez kontekstu.
Czytaj też: PS5 Pro przebije większość PC. 120 FPS i 4K nadchodzi! Lepsza specyfikacja i skalowanie AI
„Halucynacje” sztucznej inteligencji są dość powszechne wśród modułów do nauki języków i chociaż ChatGPT może być jednym z najbardziej zaawansowanych z nich, odpowiedzi te dowodzą, że jest jeszcze wiele do zrobienia.
Wirusowa historia autorstwa felietonisty technologicznego Eda Zitrona wyjaśnia dalej, że niektóre firmy mogą osiągać „górne granice” możliwości wykorzystania sztucznej inteligencji i tego, jak dokładne mogą być naprawdę dokładne wyniki.
Czytaj też: Google Pixel 8 wdraża rewolucyjną funkcję z pomocą AI. Galaxy S24 również skorzysta
OpenAI jest świadoma powszechnych problemów
OpenAI potwierdziło obecne błędy w ChatGPT na swojej stronie statusu usługi. W notatce o zdarzeniu czytamy: „Badamy raporty o nieoczekiwanych odpowiedziach od ChatGPT”. oraz że firma zidentyfikowała problem i pracuje nad jego rozwiązaniem.
Czytaj też: Czy Sztuczna inteligencja zabierze pracę artystom? Rozwój AI może niepokoić ludzi