Szef Google o przełomie OpenAI: żenada
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Demis Hassabis, szef Google DeepMind, odpowiedział trzema słowami: "To jest żenujące".
Hassabis reagował na X na post Sébastiena Bubecka, naukowca z konkurencyjnego OpenAI. Bubeck właśnie ogłosił, że dwóch matematyków użyło najnowszego modelu językowego OpenAI – GPT-5 – do rozwiązania problemu matematycznego. Ton? Entuzjastyczny. Przesłanie? Przełom.
Problem w tym, że to właśnie ten rodzaj komunikacji pokazuje, jak media społecznościowe napędzają najgorszy rodzaj AI-boosteryzmu.
Pracujesz nad projektem przez miesiące. Testujesz, poprawiasz, sprawdzasz wyniki. I nagle konkurencja ogłasza: "Nasz system właśnie rozwiązał problem, nad którym ludzkość biła się latami!"
Brzmi imponująco? Jasne.
Tylko że diabeł tkwi w szczegółach. I właśnie dlatego Hassabis użył słowa "embarrassing" – żenujące.
Bo w świecie AI (sztucznej inteligencji) granica między rzeczywistym osiągnięciem a marketingowym szumem bywa cieńsza niż myślisz. A media społecznościowe – zwłaszcza X (dawny Twitter) – to idealne miejsce, gdzie ten szum rozbrzmiewa najgłośniej.
Mechanizm jest prosty. Post o przełomie technologicznym generuje zaangażowanie. Zaangażowanie oznacza zasięgi. Zasięgi przekładają się na uwagę inwestorów, mediów, potencjalnych klientów.
Efekt? Naukowcy i liderzy firm AI publikują ogłoszenia, które brzmią jak przełomy. Nawet jeśli rzeczywistość jest bardziej... złożona.
Weźmy GPT-5. Bubeck twierdził, że model pomógł rozwiązać problem matematyczny. Ale co to dokładnie znaczy? Czy model sam wyprodukował rozwiązanie? Czy asystował matematykom? Czy po prostu przyspieszył proces, który i tak by się udał?
Te niuanse giną w 280 znakach.
Jeśli śledzisz rozwój AI – czy to jako przedsiębiorca szukający narzędzi, czy jako osoba po prostu zainteresowana tematem – musisz nauczyć się filtrować szum.
Oto kilka sygnałów ostrzegawczych:
Brak szczegółów technicznych. Jeśli ogłoszenie przypomina "nasz model osiągnął przełom", ale nie ma żadnych konkretów – co dokładnie zrobił, jak to zmierzono, jakie były warunki testów – to czerwona flaga.
Porównania bez kontekstu. "Nasz system jest 10x lepszy" – lepszy od czego? W jakim zadaniu? Przy jakich danych wejściowych?
Entuzjazm bez peer review. W nauce (w tym w AI) prawdziwe osiągnięcia przechodzą przez proces weryfikacji przez innych ekspertów. Jeśli coś jest ogłaszane na X przed publikacją naukową – zachowaj zdrowy sceptycyzm.
OpenAI i Google DeepMind to dwa największe nazwiska w wyścigu AI. Oba zespoły mają na koncie rzeczywiste osiągnięcia – ChatGPT zmienił sposób, w jaki ludzie myślą o AI, a DeepMind rozwiązał problem zwijania białek (AlphaFold), co było prawdziwym przełomem naukowym.
Ale rywalizacja między nimi to także rywalizacja narracji. Kto pierwszy ogłosi przełom? Kto przyciągnie więcej uwagi mediów? Kto przekona inwestorów, że to właśnie jego technologia jest przyszłością?
I tu wkracza X. Platforma, gdzie jeden post może wywołać lawinę reakcji. Gdzie CEO i naukowcy mogą mówić bezpośrednio do milionów ludzi. Bez pośredników, bez dziennikarzy zadających niewygodne pytania.
Problem? Brak weryfikacji prowadzi do nadmuchiwania osiągnięć. A to z kolei prowadzi do rozczarowań, gdy rzeczywistość okazuje się mniej spektakularna.
AI-boosteryzm to postawa, która każde osiągnięcie w dziedzinie sztucznej inteligencji przedstawia jako rewolucję. Każdy nowy model jest "przełomowy". Każda funkcja to "game changer".
Ten rodzaj komunikacji ma swoje konsekwencje. Po pierwsze, rozmywa granicę między tym, co AI naprawdę potrafi, a tym, co jest tylko obietnicą. Po drugie, tworzy nierealistyczne oczekiwania u użytkowników i firm. Po trzecie, utrudnia rozmowę o rzeczywistych ograniczeniach i zagrożeniach związanych z AI.
Weźmy przykład: jeśli firma ogłasza, że jej model "rozumie" tekst, brzmi to imponująco. Ale LLM (Large Language Model – czyli "mózg" ChatGPT i podobnych systemów) nie rozumie w sposób, w jaki my rozumiemy. On przetwarza wzorce w danych. To fundamentalna różnica.
A gdy ta różnica zostaje zatarta w komunikacji – mamy problem.
Kilka praktycznych wskazówek:
Szukaj źródeł pierwotnych. Jeśli ktoś ogłasza przełom, sprawdź, czy istnieje publikacja naukowa, raport techniczny, czy przynajmniej szczegółowy opis metody. Jeśli nie – zachowaj dystans.
Sprawdzaj, kto mówi. Czy to naukowiec z doświadczeniem w danej dziedzinie? Czy dyrektor ds. marketingu? To ma znaczenie.
Patrz na reakcje ekspertów. Jeśli inni badacze AI milczą lub – jak Hassabis – reagują sceptycznie, to sygnał, że warto zachować ostrożność.
Zadawaj pytanie: "Co to oznacza w praktyce?" Przełom w matematyce brzmi imponująco. Ale czy wpłynie to na Twoje życie? Na Twoją firmę? Jeśli nie – może to po prostu ciekawy, ale niszowy wynik naukowy.
Branża AI ma problem z komunikacją. Z jednej strony, osiągnięcia są rzeczywiście imponujące – modele językowe potrafią dziś rzeczy, które jeszcze 5 lat temu wydawały się science fiction. Z drugiej strony, nadmierny entuzjazm prowadzi do utraty wiarygodności.
Hassabis, nazywając post Bubecka żenującym, nie krytykował samego osiągnięcia (jeśli w ogóle miało miejsce). Krytykował sposób, w jaki zostało ono zaprezentowane. Krytykował kulturę, w której liczy się hype, nie rzetelność.
I to jest lekcja nie tylko dla naukowców AI. To lekcja dla każdego, kto śledzi rozwój technologii. Media społecznościowe dają głos. Ale nie dają automatycznie wiarygodności. Tę trzeba zbudować poprzez transparentność, szczegóły, uczciwość.
Bo inaczej? Zostaje tylko szum. I żenada.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar