Thinking Machines kwestionuje strategię OpenAI: skala to nie wszystko
Źródło: Link
Źródło: Link
OpenAI, Google i Anthropic wydają miliardy dolarów na coraz większe modele językowe. Założenie? Sama skala wystarczy do osiągnięcia sztucznej inteligencji ogólnej (AGI). Tymczasem pojawia się głos sprzeciwu – i to z nieoczekiwanego miejsca.
Thinking Machines, firma wyceniona na setki milionów dolarów, publicznie kwestionuje dominującą strategię skalowania. Ich zdaniem pierwsze superinteligencje nie będą po prostu większymi wersjami GPT-4 czy Claude. Będą przede wszystkim lepszymi uczniami.
Badacz z Thinking Machines przedstawił alternatywną wizję rozwoju AI podczas niedawnej konferencji branżowej. Główna teza? Pierwsza superinteligencja będzie "superludzkim uczniem" (superhuman learner), nie tylko superludzkim wykonawcą zadań.
To fundamentalna różnica. Obecne duże modele językowe są trenowane raz na ogromnych zbiorach danych i potem działają w oparciu o tę wiedzę. Thinking Machines proponuje systemy, które uczą się w trakcie działania – podobnie jak ludzie, tylko lepiej.
Argument przeciwko czystemu skalowaniu jest prosty: nawet jeśli zbudujesz model 100 razy większy od GPT-4, wciąż będzie miał te same fundamentalne ograniczenia. Nie potrafi uczyć się z pojedynczych przykładów. Nie adaptuje się do nowych sytuacji bez ponownego treningu. Nie rozumuje tak elastycznie jak człowiek.
Thinking Machines wskazuje na konkretny problem – efektywność uczenia się. Człowiek może nauczyć się nowej koncepcji z kilku przykładów (czasem z jednego). Obecne modele potrzebują tysięcy powtórzeń. To nie jest problem, który rozwiąże się dodając więcej parametrów.
Jeśli Thinking Machines ma rację, branża może zmarnować miliardy na wyścig zbrojeń w rozmiarze modeli. Zamiast tego potrzebujemy nowych architektur – takich, które priorytetowo traktują zdolność do uczenia się, nie tylko przetwarzanie danych.
Ciekawy moment dla całej branży. OpenAI właśnie ogłosiło plany budowy jeszcze większych modeli, a Google inwestuje w kolejne generacje Gemini. Tymczasem mniejsze firmy jak Thinking Machines stawiają na zupełnie inne podejście.
Jeśli pracujesz z AI, ta debata ma praktyczne konsekwencje. Modele, które potrafią się uczyć w czasie rzeczywistym, mogłyby:
Pytanie brzmi: kto ma rację? Giganci stawiający na skalę, czy outsiderzy jak Thinking Machines? Odpowiedź poznamy prawdopodobnie w ciągu najbliższych 2-3 lat. Wtedy zobaczymy, czy GPT-5 i kolejne generacje faktycznie zbliżą nas do AGI, czy może potrzebujemy fundamentalnie innego podejścia.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar