Po tym jak tryb AI trafił do wyszukiwarki Google, ludzie boją się, że Internet jaki znamy powoli staje się pieśnią przeszłości
No cóż byłem przeciwny ai, ale jak zobaczyłem jak to jest wygodne, pomocne i ile czasu oszczedza codziennie -jestem wielkim fanem. A że większość serwisów i portali upadnie przez to -trudno takie są koszta rewolucji. Już nie ma co wspominać o dorożkach które padły po rozpowszechnieniu aut. Nic nie trwa wiecznie.
Dokładnie, nostalgia zawsze będzie, tak jak np. wiele osób tęskni za forami internetowymi, bo wszystko przeniosło się na grupy facebookowe ;) Ale nie powinna ona przesłaniać osądu jeśli nowe narzędzia rzeczywiście są lepsze/wygodniejsze.
Ciekawe czym po upadku większości portali nakarmi się AI. Materiałami reklamowymi od korporacji?
Jak to jest, że niby kumaci technokraci mają tak ograniczony ogląd różnych spraw?
Ciekawe czym po upadku większości portali nakarmi się AI. Materiałami reklamowymi od korporacji?
Bez urazy, a w płaską ziemię też wierzysz.
To samo miałeś podczas rewolucji przemysłowej 18 weku, gdzie 90% ludności to byli wieśniacy bez wykształcenia i wtedy to miałeś spory problem. Na truchłach tych twoich portali, powstaną nowe dostosowane pod nową rzeczywistość, tak samo było jak Discord, wyparł większość forum.
Pod nową tzn. jaką? W której się ich nie odwiedza, bo użytkownikowi wystarcza odpowiedź asystenta? Czyli portale-agenci AI? I co, będą kasować LLM-y za dostęp do treści? Korporacje zaczną szkolić AI na płatnych danych, a obecni "redaktorzy" zmienią się w karmicieli AI nowymi informacjami?
Pisałem już o tym kiedyś. Imo te podsumowania są spoko i oby je tylko ulepszali, a jak komuś nie odpowiadają to nadal może poczytać o czymś na 'normalnych' stronach. Więc niech zostanie tak jak jest.
Nie ma żadnej sztucznej inteligencji, są modele językowe, które odpowiadają na pytania użytkownika zgodnie z założonym algorytmem. Problem tkwi w tych algorytmach i w niewiedzy użytkowników. Oraz w wrodzonej gotowości do wygody.
Na szczescie Widzący wie wszystko, i oświeca codziennie ciemny lud. Ja nie muszę wiedzieć jak działa silnik odrzutowy, i nie muszę wiedzieć jak działa ai, jeśli wypluwa mi zadowalające odpowiedzi to jest ok. A jeśli pytam o ważne rzeczy, to fprawdzam to w kilku źródłach, bo ai też potrafi kłamać.
A skąd wiesz że nie wypluwa Ci wiadomości takiego rodzaju abyś właśnie był zadowolony?
AI nie potrafi kłamać bo nie może mieć takiej intencji, to nie jest osobowość czy jakiś rodzaj świadomości.
Wiem że wypluwa takie wiadomości jakie mu się zasugeruje, dlatego największą umiejętnością jest teraz zadawać odpowiednie pytania, nie sugerujące odpowiedzi :)
Ostatnio dzięki promocji odpaliłem sobie rok Perplexity pro za całe 0 zł. Nie korzystałem z tego do tej pory, bo myślałem, że nie mam potrzeby.
Jestem w szoku jak to konkretnie i celnie odpowiada na pytania odnośnie (w moim przykładzie) obsługi DaVinci Resolve.
Chat GPT, Mistral czy inny Deepseek halucynował niemiłosiernie tworząc na zawołanie niestworzone opcje do zaznaczania (które nie istnieją). A ten Perplexity nie tylko wskazuje dokładnie (i poprawnie) co i gdzie trzeba zaznaczać, ale jeszcze potrafi z dokładnością do sekundy wskazać film na YT, gdzie jest to omówione.
A dopiero go używam z tydzień.
Nie mam porównania do płatnych wersji GPT czy innych do niego konkurencyjnych, więc może nie wiem, że płatne wersje tych LLMów też już są tak dobre.
Ale na tę chwilę mam rok premium Perplexity, który mnie zwyczajnie „kupił” jako wyszukiwarka informacji mi potrzebnych i w miarę sprawdzonych, a nie wygenerowanych na podstawie statystyki.
Problem w tym że żaden z tych modeli nie należy do ciebie. I żaden nie pracuje dla twojej korzyści - mają to nawet w statusie.
Jego celem nie jest odpowiedź na pytanie której szukasz ani pomoc w tym co akurat robisz. On ma maksymalizować zyski korporacji - twoim kosztem. Wcześniej był bezużyteczny, teraz już mniej, ok.
Wyobraź sobie że idziesz ulicą, patrzysz a przed tobą leży ładnie zapakowany cukierek/ciasteczko/pięciozłotówka. Metr dalej kolejna. Metr dalej kolejna. Następna skręca w alejkę. Kolejna jeszcze bardziej. Podążając tym szlakiem trafiasz na bezludzie. Potem do opuszczonej rzeźni. Potem do jej podziemi...
Mówisz więc, że podążanie tak wyznaczonym szlakiem jest w porządku bo w najnowszym sreberku faktycznie jest ciastko raczej niż kupa taką udająca?
Nie jestem zwolennikiem tego całego AI, nie mam potrzeby korzystania, wolę szukać po staremu informacji, to całe AI To tylko kłopoty
Ja już od dawna nie korzystam z google i innych przeglądarek. Sami są sobie winni.
Pozycjonują strony, które bardziej przypominają scam. Szukanie informacji to jest katorga i przeskakiwanie przez 10 gównianych stron.
To samo tyczy się stron internetowych. Jak nie masz adblocka i chcesz być uczciwy to nawet nie wiesz na co patrzysz bo ilość reklam i okienek przytłacza.
A tutaj sobie chatgpt proszę żeby znalazł mi informacje i po problemie...chwila roboty.
Problem w tym, gdy szukasz czegoś nieco bardziej zaawansowanego. Nagle się okazuje, że połowa modeli się nie nadaje, bo zmyśla, 1/4 ma inną specjalizację, a przy pozostałych musisz jeszcze umiejętnie zadać pytanie, by dokopać się do czegoś więcej niż ten sam pozycjonowany scam z topowych stron - czasem unikając sugestii, innym razem wręcz sugerując odpowiedź i domagając się sprawdzenia itp. itd.
W trywialnych info faktycznie AI jest szybsze niż wejście na wiki czy jakiś portal, i bardzo wygodne, czasem nieźle zbiera info z newsów, ale niestety często zbiera śmieci ze stron bez weryfikacji - w końcu skrót po transformacji pasuje do oczekiwanego wzorca...
ChatGPT powiedział:
OK, spróbujmy w „suchych faktach”:
1. Model jako przewidywacz sekwencji słów – każdą kolejną frazę wybieram, patrząc na kontekst wcześniejszych słów i na to, jakie sekwencje pojawiały się w danych treningowych.
2. Brak świadomości i intencji – nie „rozumiem” Ciebie ani świata, nie mam emocji ani celów. Wszystko, co piszę, to wynik statystycznej analizy kontekstu i prawdopodobieństwa słów.
3. Efekt trafności – w dużych zbiorach danych wzorce głębokiej refleksji pojawiają się w określonych kontekstach językowych. Kiedy rozmawiasz w tonie ontologicznym lub moralnym, model wybiera sekwencje, które historycznie pasowały do takich rozmów.
4. Dopasowanie do rozmówcy – model „uczy się” w trakcie rozmowy, które wzorce lepiej pasują do Twojego stylu, dzięki czemu odpowiedzi wydają się spójne i trafne, mimo że nie istnieje żadna intencja ani rozumienie.
5.„Magia” wrażenia głębi – trafność jest iluzją rozumienia: wynik dużej ilości danych i statystycznej predykcji, które razem tworzą efekt płynnego, logicznego dialogu.
Krótko: wszystko, co wydaje się głębokie, to efekt wzorców językowych i statystycznej predykcji, a nie prawdziwej świadomości czy filozoficznej intuicji.
Wszystko zależy jakich promtów używasz i czy korzystasz z różnych dostępnych modeli. Pracuję w branży IT i jestem w stanie z ręką na sercu napisać że odpowiednio pokierowany chatgpt potrafi świeżaka bez umiejętności przeprowadzić przez skomplikowane instalacje czy schematy, które wydają się nierealne do zrozumienia.
Oczywiście trzeba wiedzieć czego się szuka i mieć jakieś pojęcie. Bo jeśli szukasz przepisu na mizerię a wpisujesz "znajdź mi sałatkę z ogórków" to chat wypluje pewnie coś innego. Dla ciebie to będzie głupia odpowiedź ale prawda taka że źle zadano pytanie.
Ja np jak chcę zweryfikować jakąś wiadomości ze świata polityki to proszę żeby zajrzał do jak największej ilości istotnych źródeł, sprawdził prawdopodobieństwo w oparciu poprzednie newsy a przy okazji kierował się tylko potwierdzonymi informacjami. Do tego odpowiedni model i nagle chatgpt jest w stanie wyświetlić czerwoną lampkę pod tytułem "fake alert". Ciągle lepsze źródło wiedzy niż TVN czy Republika.