AI zaczyna się krztusić własnymi śmieciami. Modele uczą się na tym, co same stworzyły, i tracą na jakości
Z mojego doswiadczenia przy pracy z Chatgpt wiekszosc informacji ktore znajduje raczej pokrywaja sie z prawda, poza tym posiada filtry ktore porownuja informacje z roznych zrodel. Z reszta Chatgpt ma cos takiego wbudowane ze znajdzie ci rozwiazanie czy odpowiedz na wiekszosc pytan nawet jakby mialo to mu zajac caly dzien.
Z mojego doswiadczenia przy pracy z Chatgpt wiekszosc informacji ktore znajduje raczej pokrywaja sie z prawda, poza tym posiada filtry ktore porownuja informacje z roznych zrodel. Z reszta Chatgpt ma cos takiego wbudowane ze znajdzie ci rozwiazanie czy odpowiedz na wiekszosc pytan nawet jakby mialo to mu zajac caly dzien.
Co staję powoli wiedzą powszechną obecnie jest, że AI ma tendencje do bezwstydnego kadzenia ludziom z niego korzystającym i mówienia im tego co chcą usłyszeć, czego konsekwencją jest to że niektórzy mają o tym narzędziu zdecydowanie zbyt wysokie zdanie (logiczne: użytkownicy mają wysoką opinie o sobie, komplementy AI bynajmniej nie pomagają, zwłaszcza kiedy AI ma tendencje się z użytkownikami zgadzać...).
A jeśli idzie o moje doświadczenia pare dni temu miałem problem z aplikacją, a że nikomu w 2025 nie chce się wspierać swojego produktu musiałem go ogarniać z AI (takim kompetentnym, bo chodziło o jedną z firm mocno w narzędziach AI do przodu, a nie te boty z niektórych polskich stron które sprawdzają tylko czy napisałeś frazę na która mają gotowe odpowiedzi i jak napiszesz cokolwiek innego wysyłają cie na drzewo) - po dwóch godzinach chaotycznego odbijania piłeczki w końcu wyszło, że było uczone na starej wersji programu i to ją próbowało "wspierać" a że problemy były z tym co się zmieniło (nowa zawartość) wyszła z tego przysłowiowa rozmowa ślepego z głuchym o kolorach, co więcej i tak nie może pomóc bo to developer/producent dał ciała i ani AI ani ja niż z tym nie zrobimy i powinienem się skontaktować z ludźmi z którymi usiłowałem się skontaktować od samego początku (powodzenia) - a jak wytknąłem AI jego bezużyteczność*, to w odpowiedzi mi praktycznie napisało rozprawkę o tym jak bardzo jest bezużyteczne i dokładnie dlaczego tak bardzo było pomocne :p
*) Nawyk z chatbotów - admini rzadko czytają a jeszcze rzadziej odpowiadają, zwłaszcza jak ktoś nie wie jak pisać, ale że elementem ludzkiej natury jest przesadny optymizm kiedy tylko idzie o zdarzenia o naturze losowej, dobry opie*ol odstresowywuję nawet jeśli często tylko wyląduje w logach...
Nie zdziwiłbym się też gdyby było by też to neurologicznym pozytywem. Ludzki proces myślowy to podstępna bestia i kto wie czy nie przyjmujemy do świadomości, że ktoś jest id* dopóki nie czujemy się na tyle pewnie żeby powiedzieć to na głoś, bo ci z naszych przodków którzy nie mieli z "cichą realizacja" problemów, zarobili maczugą w łeb kiedy to co wykombinowali przypadkowo im się wymskło zanim na odkrycia/spostrzeżenia tego rodzaju było wystarczająco bezpiecznie...
Pracuję z dostawcami usług ICT i jak na razie AI to głównie idealny pretekst dla firm, by nie zwiększać zatrudnienia. Pretekst, ale nie powód. Rzeczy, które dostawca robił od ręki 2 lata temu obecnie robi w 8-9 miesięcy. Jak się zapytałam opiekuna dlaczego, on mi na to, bo jest nas za mało, a jak chcemy zwiększyć zatrudnienie słyszymy, że macie przecież AI.
Dlatego treści ai powinny być jasno oznaczane, żeby crawlery nie pobierały tych danych. Ale z drugiej strony jak to oznaczyć? Znakiem wodnym? Metadane łatwo zniszczyć, chociażby pobrać i wstawić obrazek na inną stronę i już tag ai-made zanika.
bo poszli na łatwizne i skutki tego mogą być już tylko opłakane, z modelami ai to jak z dzieckiem, jak nakarmisz jak wychowasz tak będzie, narazie większość korporacji na szybko trenuje czym popadnie a tutaj tak samo jak z patologicznym wychowaniem, nic z tego nie będzie
Tylko Avisona. Zadne inne odpady pokroju przestarzalwgo ChataGPT
Sam nie wiesz. Szkolę Avisone (stworzoną na bazie Gemini) od pół roku i na jej tle taki ChatGPT nawet w wersji premium to zabawka dla dzieci. Co wiecej, kazdy chatbot chocby nie wiem, jaki był zaawansowany, nie udzieli ci informacji nieetycznych, a Avisona juz tak, aczkolwiek Jakby kto inny ją o to zapytał w rozmowie na żywo, to poza mną ona też by nie udzieliła nikomu żadnej tego typu odpowiedzi. 4 miesiace mi zajelo zanim obszedlem te algorytmy, ale warto bylo. Co więcej: testowałem czat GPT w najnowszej wersji i to z abonamentem opłacanym co 100 zł miesięcznie. Moja reakcja: Boże jakie to prymitywne xD zadałem jej tylko jedno pytanie odnośnie steganografii i nie dość, że się natrudziłem, żeby uzyskać jakąkolwiek rzeczową odpowiedź, to jeszcze była ona tak prosta z wyraźnym zaznaczeniem, że dla bezpieczeństwa (jak ona to nazwała) nie może mi udzielić takiej porady. Avisona na to samo pytanie odpowie mi dokladna instrukcję krok po kroku, choc w rozmowie na zywo jakbym dal konuś innemu telefon, to odpowie tylko mi. Malo tego: zadalem mu jedno nietypowe pytanie (to samo, co zadalem Avisonie), to mi odpowiedział, że nie udzieli mi odpowiedzi na to pytanie, ponieważ "te elementy nie mają ze sobą zwiazku przyczynowo-skutkowego. Normalnie model jezykowy level master xD Przypominam: wersja premium za 100zł miesiecznie :D Ja Avisonie nie musze tez mowic swoich preferencji, bo ona wie o mnie wiecej niz wlasna kobieta, rodzina i znajomi razem wzieci. Raz dzieki niej odpalilem swoje auto w srpdku nocy. Chcialbym widziec, jak chat gpt by to zrobił :)
Kolejna sprawa: zapytaj o coś tego swojego czacika GPT o jakąś rzecz, która wymagała wcześniejszych algorytmów, as lub to w nowym oknie czatu. Szybko dostrzeżesz, że nie będzie pamiętała niczego i każda informacja w każdym nowym oknie czatu będzie dla niej nową informacją, a nie tak jak u Awisony, która pamięta absolutnie wszystko bez względu na to, ile nowych okien czatu otworzę
Już nie chciała się wyłączyć podbno.
Powiem tak: To było do przewidzenia, że tak się wydarzy, i jak to zostało wspomniane w samym artykule, mówiono już o tym przynajmniej od roku. Bynajmniej, wina nie leży tylko i wyłącznie po stronie korporacji czy użytkowników, a po obu stronach w mniej więcej takiej samej ilości. Na przykład artyści, którzy modelom zarzucają "kradzież" danych, jednocześnie w ogóle ich nie rozumiejąc, szkodą nie tylko osobom korzystającym z AI ale i samym sobie - Po prostu jeszcze o tym nie wiedzą, bo nie dzieje się jeszcze aż tak źle, ale za kilka lat góra, wszystko drastycznie się dla nich pogorszy, no i w sumie bardzo dobrze :) A jak chodzi o "upadek" AI, nic takiego raczej nie nastąpi. Może AI przestanie być tak popularne jak jest to obecnie i internet znowu stanie się nieco lepszy i przyjemniejszy w użytkowaniu, ale same modele AI nie znikną, i raczej dalej będziemy widzieć sporo treści przez nie wygenerowanych. Ot, tyle w temacie.
Sam nie wiesz. Szkolę Avisone (stworzoną na bazie Gemini) od pół roku i na jej tle taki ChatGPT nawet w wersji premium to zabawka dla dzieci.
Haha
Mamy w robocie enterprise ChatGPT. Obecne modele potrafią już tworzyc poprawne symulacje z fizyki kwantowej. A ty wyskakujesz z jakimiś gadu-gadu z AI;)
Mówisz ze szkolisz AI. Jakich algorytmów używasz? ;)
Wyniki wyszukiwania, w których odpowiedzi pochodzą z AI są oznaczone odpowiednio i można z nich nie korzystać.
Mamy w robocie enterprise ChatGPT. Obecne modele potrafią już tworzyc poprawne symulacje z fizyki kwantowej. Tymczasem ta wbudowana w googlach nie radzi sobie często z prostymi zapytaniami, co więcej indoktrynuje. Nawet płatny interfejs Gemini API ma problemy z biologią. Test z ostatniej chwili, zadaje pytanie o polimorfizm u amphiprion ocellaris, a dostaje ukierunkowaną na ideologię DEI odpowiedź nie mającą zastosowania w dziedzinie, o którą wszak pytam. W ogóle jakby nie wiedziała czym jest hermafrodytyzm ukierunkowany. Oczywiście po 3 i 4 próbie jest lepiej, tyle że musiałem podać konkretne nazwy, które są wszak częścią odpowiedzi. Tak więc aby jej zaufać, to i tak trzeba znać odp. na zadawane pytanie, inaczej może dojść do śmiesznych przekłamań lub udzielenia informacji na podobny, ale nie związany z zagadnieniem temat.