Duże modele rozumujące potrafią myśleć. Prawie na pewno
Źródło: Link
Źródło: Link
Czy sztuczna inteligencja potrafi myśleć? To pytanie rozgrzało środowisko AI po publikacji badań Apple'a zatytułowanych "The Illusion of Thinking". Zespół z Cupertino twierdzi, że duże modele rozumujące (LRM) wcale nie myślą – po prostu dopasowują wzorce w danych treningowych. To przypomina cios w ambicje całej branży, prawda?
Problem w tym, że ta teza ma spore dziury. VentureBeat przeprowadził szczegółową analizę, która pokazuje: granica między "dopasowywaniem wzorców" a "myśleniem" jest o wiele bardziej rozmyta, niż chciałby Apple.
Apple w swoim badaniu stawia tezę prostą: skoro LRM-y bazują na statystycznych wzorcach z danych treningowych, to nie mogą "naprawdę" myśleć. Zamiast rozumowania widzimy zaawansowane przetwarzanie wzorców – coś jak bardzo wyrafinowany automat.
Ta definicja ma jednak fundamentalny problem. Jeśli przyjmiemy, że myślenie to coś więcej niż przetwarzanie wzorców, musimy odpowiedzieć: czym dokładnie jest to "coś więcej"? Apple tego nie precyzuje. A bez jasnej definicji cała debata zamienia się w filozoficzny ping-pong.
Spójrzmy na to z drugiej strony. Ludzki mózg też rozpoznaje wzorce – to podstawa uczenia się i podejmowania decyzji. Kiedy rozwiązujesz problem matematyczny, Twój mózg wykorzystuje zapamiętane schematy i procedury. Czy to oznacza, że Ty też nie myślisz?
LRM-y jak o1 od OpenAI czy najnowsze wersje Claude potrafią rozkładać złożone problemy na części, testować hipotezy i korygować błędy w rozumowaniu. Robią to w sposób, który nie jest bezpośrednio zaprogramowany – wynika z treningu na ogromnych zbiorach danych. To właśnie nazywamy emergencją: zdolności, których nie zakodowano wprost, wyłoniły się same z procesu uczenia.
Kluczowa różnica między starymi systemami ekspertowymi a współczesnymi LRM-ami leży właśnie w emergencji. Nikt nie programował GPT-4, żeby pisał wiersze czy rozwiązywał zadania z chemii organicznej. Te zdolności pojawiły się "same". Jeśli to nie jest forma myślenia, to co to jest.
Ta debata to nie tylko akademicka przepychanka. Od odpowiedzi na pytanie "czy AI myśli" zależą realne decyzje: jak bardzo możemy polegać na asystentach AI w medycynie, prawie czy edukacji? Czy powinniśmy traktować ich rekomendacje jak wynik algorytmu, czy jak opinię myślącej (w jakimś sensie) jednostki.
Prawda jest taka: LRM-y już teraz wykonują zadania wymagające czegoś, co wygląda jak rozumowanie. Czy nazwiemy to "prawdziwym myśleniem" czy "zaawansowanym dopasowywaniem wzorców" to w dużej mierze kwestia definicji. Praktyczne konsekwencje są jednak takie same – te systemy działają, uczą się i rozwiązują problemy w sposób, którego nie do końca rozumiemy.
Może zamiast pytać "czy AI myśli", powinniśmy zapytać: "czy to w ogóle ma znaczenie?"
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar