Wyniki badania zostały opublikowane na stronie arXiv – platformie, która upublicznia artykuły naukowe jeszcze przed recenzją.
Jacy Reese Anthis z Sentience Institute w Nowym Jorku wraz z współpracownikami zapytali reprezentatywną próbę 3500 osób w USA o postrzeganie AI i jej świadomości. W ankietach, przeprowadzonych w trzech falach między 2021 a 2023 rokiem, znalazły się pytania: "czy uważasz, że jakiekolwiek obecnie istniejące roboty/AI są świadome?" oraz "czy kiedykolwiek będzie możliwe, aby ta technologia osiągnęła świadomość?".
Autorzy badania argumentują, że chcieli zabrać informację o poziomie wiedzy na temat sztucznej inteligencji, by spróbować zrozumieć, jak opinia publiczna wpłynie na rozwój AI w przyszłości. W 2021 roku około 18 proc. respondentów stwierdziło, że istniejące systemy AI lub roboty są już świadome. Liczba ta wzrosła do 20 proc. w 2023 r., kiedy to odbyły się dwie fale badania. Ponadto 30 proc. Amerykanów sądzi, że już istnieje sztuczna inteligencja zdolna do wykonania każdego zadania, które zazwyczaj wykonuje człowiek.
Czy ChatGPT jest świadomy?
Z kolei jedna na dziesięć osób zapytanych w 2023 r. uważała, że ChatGPT, uruchomiony pod koniec 2022 roku, jest świadomy.
Naukowcy zwracają uwagę na to, że technologie, które dziś kryją się pod hasłem "sztuczna inteligencja", są wciąż dość proste i w żaden sposób nie można mówić o tym, że AI posiada świadomość. Fakt, że społeczeństwo w to wierzy – ich zdaniem – jest bardzo groźny, bo oznacza, że ludzie mogą ufać "opiniom wydawanym przez AI" bardziej, niż opiniom pochodzącym od człowieka.
Społeczeństwo zbyt łatwo dało się nabrać na chwyt marketingowy
Jacy Reese Anthis uważa, że społeczeństwo zbyt łatwo dało się nabrać na chwyt marketingowy zastosowany przez firmy technologiczne, polegający na wyolbrzymieniu umiejętności sztucznej inteligencji.
"Wielkie firmy technologiczne sprzedają swoje produkty jako obdarzone większymi zdolnościami, niż sugeruje to podstawowa technologia. Myślę, że ludzie zbytnio skupili się na terminie ‘sztuczna inteligencja’" – powiedziała Anthis, cytowana przez "New Scientist". Naukowczyni przypomniała, że termin "sztuczna inteligencja" powstał w latach 50.
"Ludzie często są pod wrażeniem tego, jak modele AI wypadają w testach IQ lub standaryzowanych egzaminach dla ludzi. Ale to często bardzo zły sposób myślenia o tych modelach, ponieważ AI po prostu powtarza odpowiedzi znalezione w swojej ogromnej bazie danych, na których została wytrenowana, zamiast rzeczywiście ‘wiedzieć’ cokolwiek" – powiedziała Anthis.
Częścią odpowiedzialności za zbyt duże kompetencje przypisywane AI przez społeczeństwo naukowcy obarczają media.
"Nie pomaga w tym rodzaj relacji medialnych, jakie widzieliśmy wokół dużych modeli językowych, z nadmiernie podekscytowanymi i pełnymi paniki doniesieniami o egzystencjalnych zagrożeniach ze strony superinteligencji" – powiedziała Kate Devlin z King’s College London, cytowana przez New Scientist.