Teraz nieco lepiej rozumiemy kryzys w OpenAI. Zarząd mógł mieć rację co do nieuczciwości Sama Altmana
GPT-4o to naprawdę dobra technologia, ale jej obraz psuje niezbyt klarowne postępowanie CEO OpenAI, Sama Altmana. Nowa wersja ChatGPT przemówiła głosem niepokojąco podobnym do głosu Scarlett Johansson. Wygląda na to, że bez aprobaty aktorki.

Niedawno pokazany, ulepszony model językowy GPT-4o to duży krok naprzód w dziedzinie responsywności AI. Najbardziej spektakularną cechą nowej wersji jest skrócenie czasu reakcji do 320 milisekund. To mniej więcej tyle, ile wynosi średnio pauza podczas ludzkiej, swobodnej rozmowy. Jeśli dołożyć do tego obsługę odpowiedzi głosowych tootrzymujemy już całkiem sprawdzonego, sztucznego rozmówcę, a także tłumacza (nowy ChatGPT lepiej rozumie obce języki). Jednak w tle tej wspaniałości widać wyraźnie coraz większe problemy gromadzące się nad OpenAI. Osoba Sama Altmana niestety także wydaje się coraz bardziej zagadkowa.
Coraz bliżej Jej
Sam Sam Altman (CEO OpenAI) podkreślił w swojej wypowiedzi na platformie X, że rzeczywistości wykreowana w filmie Ona jest coraz bliższa. Przypomnijmy, w tej produkcji główny bohater, zdystansowany socjalnie Theodore (Joaquinem Phoenix) poznaje bardzo zaawansowaną AI, która mówi głosem Scarlett Johansson. Dziwnym trafem jeden z głosów do wyboru w GPT-4o jest bardzo podobny do głosu tej aktorki.

Scarlett Johansson przyznała, że brzmienie Sky w GPT-4o jest w stanie nabrać nawet jej znajomych. Zwróciła się do Sama Altmana z prośbą o wyjaśnienie, dlaczego tak się stało. To dziwna koincydencja – CEO odwołuje się do filmu Ona, a jeden z głosów jest bardzo podobny do głosu AI w tej produkcji.
Obecnie Sky jest już wyłączony, być może po bardziej zdecydowanym proteście. Widocznie OpenAI nie chce problemów z prawnikami aktorki, choć utrzymuje, że głos Sky nie ma związku ze Scarlett Johansson.
Okazało się, że Sam Altman już w 2022 roku proponował Scarlett Johansson (bezskutecznie) współpracę nad głosem dla GPT-4o. Jeszcze przed premierą tej wersji modelu językowego miał z nią się kontaktować w tej sprawie. Ostatecznie po jej odmowie zdecydował się na zaprezentowanie Sky, w domyśle – zdając sobie sprawę z jego podobieństwa (a więc prawdopodobnego przypału). To może być kolejny przykład pewnego wzorca braku przejrzystości i szczerości w postępowaniu Sama Altmana.
CEO OpenAI już wcześniej wywołał kontrowersje, czy poprzez inwestycje w firmie za pośrednictwem podmiotu venture capital, czy w wyniku konfliktu z zarządem (zarzucono Altmanowi brak szczerości). W czasie, gdy organy regulacyjne coraz pilniej przyglądają się kwestiom sztucznych inteligencji, postępowanie Sama Altmana wydaje się co najmniej niepotrzebne. Nauczenie AI wzorców głosu tak podobnych do innej osoby bez jej zgody w obliczu zagrożenia deepfake’ami. To także chyba nie jest dobra droga, prawda? Proszę o komentarze.
Więcej:Google dostało dodatkowy tydzień na realizację wyroku po przegranej z Epic Games