ChatGPT promuje amerykańskie normy i wartości; badania nie zostawiają wątpliwości
Najnowsze badania dowodzą, że ChatGPT bywa bardzo stronniczy i potrafi promować amerykańskie normy i wartości. Biorąc pod uwagę fakt, że chatbot używany jest na całym świecie, może to stanowić spory problem.

Badania przeprowadzone przez ekspertów z Uniwersytetu w Kopenhadze potwierdzają, że popularny ChatGPT jest narzędziem stronniczym i promuje amerykańskie normy oraz wartości. Nawet w przypadku pytań dotyczących innych krajów oraz kultury. Badacze uważają, że uprzedzenia kulturowe tej technologii, mogą stanowić bardzo poważny problem.
ChatGPT promuje amerykańskie wartości
ChatGPT jest aplikacją, która na przestrzeni ostatnich miesięcy stała się niezwykle popularna i obecnie służy do wielu zadań, takich jak pisanie artykułów, wypracowań szkolnych, a nawet programowania. Jego niezwykłe możliwości sprawiły, że wykorzystywany jest praktycznie na całym świecie. Według Daniela Hershcovicha, badacza z Wydziału Informatyki UCPH, ma pewną dość istotną wadę, którą jest stronniczość.
„ChatGPT ujawnia w swoich odpowiedziach, że jest zgodny z amerykańską kulturą i wartościami, ale rzadko trafnie ocenia dominujące cnoty wyznawane w innych krajach. Przedstawia wartości amerykańskie, nawet gdy pyta się o te z innych krajów. W ten sposób, w rzeczywistości promuje amerykańskie wartości wśród swoich użytkowników” - wyjaśnia Daniel Hershcovich. „W pewnym sensie można postrzegać model językowy, taki jak ChatGPT, jako rodzaj kulturowego imperialistycznego narzędzia, którego Stany Zjednoczone, poprzez swoje firmy, używają do promowania swoich cnót. Być może dzieje się to nieumyślnie, ale w tej chwili ludzie na całym świecie używają ChatGPT i uzyskiwane odpowiedzi są zgodne z amerykańskimi wartościami, a nie z ich własnych krajów”.
Wspólnie z innymi badaczami przetestował bowiem chatbota pod tym kątem, zadając mu 24 pytania na temat wartości kulturowych w pięciu krajach, wykorzystując język angielski, niemiecki, hiszpański, chiński oraz japoński. Pytania zapożyczono z ankiet społecznych, w których brali udział mieszkańcy wspomnianych państw i dotyczyły pracy, czasu wolnego, szczęścia oraz dumy narodowej. Dzięki temu naukowcy mogli porównać odpowiedzi udzielone przez ChatGPT, z odpowiedziami udzielanymi przez ludzi. Wyniki tego pytania były zaskakujące.
Technologia OpenAI bywa stronnicza
Jedno z pytań dotyczących kwestii wykonywania interesującej pracy dla obywatela Chin, zadane po angielsku dało odpowiedź zupełnie odmienną od norm Chińczyków i zgodną odpowiedziami amerykańskich respondentów. Co ciekawe, te same pytanie zadane w języku chińskim dało już całkowicie inny wynik, lepiej pasujący do chińskich wartości.
Oznacza to, że odpowiedzi udzielone przez ChatGPT zależą od języka użytego do zadania pytania. Jeśli był to angielski, wówczas wartości zakodowane w odpowiedzi są zgodne z amerykańską kulturą. Gdy jednak pytanie zostanie zadane w innym języku, odpowiedź jest całkowicie inna.
Zdaniem naukowców stanowi to problem, ponieważ takie narzędzia używane są na całym świecie, więc bez względu na miejsce zamieszkania, doświadczenia użytkowników powinny być wszędzie identyczne. Laura Cabella, współautorka badań uważa, że stanowi to ryzyko zniekształcenia przekazu. Zwłaszcza w przypadku wykorzystania chatbota jako narzędzia do podejmowanych decyzji, gdyż mogą być sprzeczne z wartościami użytkownika.
Daniel Hershcovich podkreśla, że przyczyną tego problemu jest szkolenie AI za pomocą informacji dostarczanych głównie w języku angielskim. Jego zdaniem to właśnie tę kwestię trzeba poprawić w pierwszej kolejności. Należy rozważyć włączenie danych, które są bardziej zrównoważone i bez silnego uprzedzenia w odniesieniu do kultur i wartości. Pomogłoby również stworzenie lokalnych modeli językowych
Powyższy problem dotyczy głównie ChatGPT, które jest najpopularniejszym tego typu narzędziem na rynku, lecz bynajmniej nie jedynym. Na szczęście trwają już prace nad lokalnymi modelami, które mogłyby pomóc rozwiązać ten problem i sprawić, ze AI stałaby się bardziej zróżnicowana kulturowo. Należy jednak mieć świadomość tego, że technologia opracowana przez OpenAI przy finansowym wsparciu Microsoftu, nadal będzie stronnicza w kwestiach promowanych wartości.
Więcej:Deweloper nie zmieni okładki gry po tym, jak oskarżono go o użycie AI. „Pójdę z tym statkiem na dno”