Sztuczna inteligencja (AI) stała się kamieniem węgielnym nowoczesnego postępu technologicznego, obiecując znaczący wkład w różne dziedziny. Jednak wraz z szybkim rozwojem, AI stała się również punktem centralnym strachu i niepewności dla wielu ludzi. Ten strach został nazwany przez naukowców „fobią AI”, a badania pokazują, że jest on w znacznym stopniu pod wpływem medialnego przedstawiania AI, w szczególności poprzez nagłówki wiadomości. Niedawne badanie zatytułowane „ Strach przed sztuczną inteligencją? Odkrycie fobii przed AI i rozprzestrzenianie się nastrojów strachu przez wiadomości AI oparte na NLP, ML i LLM ” przygląda się dokładnie wpływowi nagłówków wiadomości o AI na nastroje społeczne. Analizując prawie siedemdziesiąt tysięcy nagłówków wiadomości związanych z AI, badanie ujawnia potężną rolę mediów w kształtowaniu publicznego postrzegania AI.
Nagłówki wiadomości są krytycznym elementem wpływu mediów na nastroje społeczne, ponieważ stanowią pierwszy punkt kontaktu dla czytelników i nadają ton całemu artykułowi. Często ludzie nie czytają nawet całego artykułu, ale po prostu odbierają nagłówek. Co więcej, nagłówki odgrywają szczególnie znaczącą rolę w kontekście AI, ponieważ zrozumienie przez opinię publiczną jest nadal ograniczone. Wiele osób nie rozumie AI, więc szybkie medialne kąski dźwiękowe i przyciągające uwagę nagłówki mogą mieć duży wpływ na to, jak postrzegają technologię. Aby zbadać rodzaje nastrojów wyrażanych w nagłówkach dotyczących AI, naukowcy wykorzystali zaawansowane techniki przetwarzania języka naturalnego (NLP), uczenia maszynowego (ML) i duże modele językowe (LLM), aby przeanalizować nastroje i tematy obecne w nagłówkach związanych z AI.
Ich odkrycia ujawniają niepokojący trend: znaczna część nagłówków dotyczących AI jest sformułowana w sposób wywołujący strach i niepokój. Często używane są takie terminy, jak „niebezpieczny”, „zagrożenie”, „ryzyko” i „zagrożenie egzystencjalne”, co przyczynia się do rosnącego niepokoju opinii publicznej o AI. Co ważne, to sianie strachu nie jest tylko odzwierciedleniem nastrojów społecznych; badacze twierdzą, że aktywnie je kształtuje, prowadząc do cyklu, w którym strach rodzi więcej strachu.
W badaniu wykorzystano wiele narzędzi do analizy nastrojów, aby ocenić wydźwięk emocjonalny nagłówków, w tym VADER (narzędzie do analizy nastrojów oparte na leksykonie i regułach, które klasyfikuje słowa od najbardziej negatywnego do najbardziej pozytywnego), AFINN (narzędzie, które przypisuje punkty słowom, gdzie punkty negatywne oznaczają negatywny nastrój, a punkty pozytywne oznaczają pozytywny nastrój) i TextBlob (biblioteka udostępniająca proste API, które zwraca wynik polaryzacji wskazujący na nastrój negatywny, pozytywny nastrój i neutralność).
Wyniki wykazały wyraźną obecność negatywnych nastrojów, przy czym około 40% nagłówków przekazywało strach lub niepokój o AI. Wyniki te sugerują, że media nie tylko informują o obawach społeczeństwa dotyczących AI, ale także przyczyniają się do ich wzmocnienia.
Ponadto badanie podkreśliło użycie sensacyjnego języka w nagłówkach. Taki język ma na celu przyciągnięcie uwagi, ale często kosztem niuansów w relacjonowaniu. Nacisk na język wywołujący strach w nagłówkach może prowadzić do wypaczonego postrzegania przez opinię publiczną, w którym ryzyko związane ze sztuczną inteligencją jest wyolbrzymiane, a korzyści z niej są bagatelizowane.
Rozprzestrzenianie się fobii AI za pośrednictwem nagłówków medialnych ma daleko idące implikacje. Naukowcy odkryli, że strach społeczeństwa przed AI może wpływać na decyzje polityczne, prowadząc do nadmiernie ostrożnych lub restrykcyjnych przepisów, które blokują innowacje. Może również wpływać na zaangażowanie społeczeństwa w AI, powodując, że ludzie odrzucają lub boją się technologii AI, które w przeciwnym razie mogłyby poprawić ich życie.
Badanie ostrzega, że jeśli nie zostanie powstrzymane, rozprzestrzenianie się fobii AI może mieć szkodliwy wpływ na rozwój AI jako nauki. Opowiada się za bardziej zrównoważonym podejściem do raportowania AI, w którym potencjalne ryzyko jest omawiane obok korzyści, a nauka o AI jest przedstawiana w sposób, który jest zarówno dokładny, jak i dostępny dla ogółu społeczeństwa.
Aby przeciwdziałać obecnemu trendowi nagłówków o AI wywołujących strach, badanie przedstawia kilka rekomendacji. Po pierwsze, wzywa do opracowania ontologii wiadomości o AI, która rozróżnia AI jako naukę i zastosowania AI. Mogłoby to pomóc dziennikarzom i mediom w dostarczaniu bardziej dokładnego i kontekstowego relacjonowania tematów AI.
Po drugie, badanie sugeruje, że media współpracują z ekspertami od AI, aby tworzyć bardziej świadome i zrównoważone relacje. Współpraca ta mogłaby obejmować regularne sprawdzanie faktów i komentarze ekspertów, aby zapewnić, że wiadomości związane z AI są nie tylko sensacyjne, ale także pouczające i oparte na rzeczywistości.
Na koniec, badanie podkreśla znaczenie edukacji publicznej na temat AI. Poprzez poprawę zrozumienia AI i jej implikacji przez ogół społeczeństwa, łatwiej jest promować bardziej świadomy i racjonalny dyskurs publiczny na temat AI, zmniejszając wpływ wywołujących strach nagłówków.
Badanie przeprowadzone przez Rutgers University rzuca światło na ważną rolę, jaką nagłówki wiadomości odgrywają w kształtowaniu opinii publicznej na temat AI. W miarę jak AI nadal się rozwija i integruje z różnymi aspektami społeczeństwa, ważne jest, aby relacje medialne na temat AI były zrównoważone, dokładne i wolne od zbędnej sensacji. Przyjmując zalecenia badania, możemy pracować nad krajobrazem medialnym, który informuje opinię publiczną o AI w sposób, który wzmacnia, a nie przeraża.
Artykuł powstał na podstawie tych badań: Samuel, Jim, Tanya Khanna i Srinivasaraghavan Sundar. „Strach przed sztuczną inteligencją? NLP, ML i LLM oparte na odkryciu AI-fobii i propagacji nastrojów strachu przez wiadomości AI”. NLP, ML i LLM oparte na odkryciu AI-fobii i propagacji nastrojów strachu przez wiadomości AI (2024).