Modele AI
Modele AI · 3 min czytania · 25 października 2025

Thinking Machines kwestionuje strategię OpenAI: skala to nie wszystko

Thinking Machines kwestionuje strategię OpenAI: skala to nie wszystko - Biznes

Źródło: Link

OpenAI, Google i Anthropic wydają miliardy dolarów na coraz większe modele językowe. Założenie? Sama skala wystarczy do osiągnięcia sztucznej inteligencji ogólnej (AGI). Tymczasem pojawia się głos sprzeciwu – i to z nieoczekiwanego miejsca.

Thinking Machines, firma wyceniona na setki milionów dolarów, publicznie kwestionuje dominującą strategię skalowania. Ich zdaniem pierwsze superinteligencje nie będą po prostu większymi wersjami GPT-4 czy Claude. Będą przede wszystkim lepszymi uczniami.

Uczenie się zamiast rozmiaru – nowa wizja AGI

Badacz z Thinking Machines przedstawił alternatywną wizję rozwoju AI podczas niedawnej konferencji branżowej. Główna teza? Pierwsza superinteligencja będzie "superludzkim uczniem" (superhuman learner), nie tylko superludzkim wykonawcą zadań.

To fundamentalna różnica. Obecne duże modele językowe są trenowane raz na ogromnych zbiorach danych i potem działają w oparciu o tę wiedzę. Thinking Machines proponuje systemy, które uczą się w trakcie działania – podobnie jak ludzie, tylko lepiej.

Dlaczego obecna strategia skalowania może zawieść

Argument przeciwko czystemu skalowaniu jest prosty: nawet jeśli zbudujesz model 100 razy większy od GPT-4, wciąż będzie miał te same fundamentalne ograniczenia. Nie potrafi uczyć się z pojedynczych przykładów. Nie adaptuje się do nowych sytuacji bez ponownego treningu. Nie rozumuje tak elastycznie jak człowiek.

Thinking Machines wskazuje na konkretny problem – efektywność uczenia się. Człowiek może nauczyć się nowej koncepcji z kilku przykładów (czasem z jednego). Obecne modele potrzebują tysięcy powtórzeń. To nie jest problem, który rozwiąże się dodając więcej parametrów.

Co to oznacza dla rozwoju AI

Jeśli Thinking Machines ma rację, branża może zmarnować miliardy na wyścig zbrojeń w rozmiarze modeli. Zamiast tego potrzebujemy nowych architektur – takich, które priorytetowo traktują zdolność do uczenia się, nie tylko przetwarzanie danych.

Ciekawy moment dla całej branży. OpenAI właśnie ogłosiło plany budowy jeszcze większych modeli, a Google inwestuje w kolejne generacje Gemini. Tymczasem mniejsze firmy jak Thinking Machines stawiają na zupełnie inne podejście.

Co to znaczy dla Ciebie

Jeśli pracujesz z AI, ta debata ma praktyczne konsekwencje. Modele, które potrafią się uczyć w czasie rzeczywistym, mogłyby:

  • Adaptować się do Twojego stylu pracy bez długiego fine-tuningu
  • Uczyć się z Twoich poprawek natychmiast, nie po kolejnym cyklu treningowym
  • Rozwiązywać nowe problemy bez potrzeby dostępu do ogromnych zbiorów przykładów

Pytanie brzmi: kto ma rację? Giganci stawiający na skalę, czy outsiderzy jak Thinking Machines? Odpowiedź poznamy prawdopodobnie w ciągu najbliższych 2-3 lat. Wtedy zobaczymy, czy GPT-5 i kolejne generacje faktycznie zbliżą nas do AGI, czy może potrzebujemy fundamentalnie innego podejścia.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.