Modele AI
Modele AI · 4 min czytania · 1 lutego 2026

Odpalił AI na Macu M1 i dostał lekcję pokory

Odpalił AI na Macu M1 i dostał lekcję pokory

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Powiązane tematy

Lokalne modele AI miały być przyszłością. Szybkie, prywatne, bez chmury. Eksperyment z Ollama pokazał, że teoria to jedno, a praktyka to drugie.

Ktoś z redakcji ZDNet postanowił sprawdzić, jak AI działa na komputerze bez wysyłania danych do serwerów OpenAI czy Google. Wziął Maca z procesorem M1, zainstalował Ollama (narzędzie do uruchamiania modeli AI lokalnie) i… no właśnie.

Nie do końca poszło zgodnie z planem.

Czym w ogóle jest lokalne AI

Szybkie wyjaśnienie dla osób, które nie żyją technologią na co dzień.

Kiedy używasz ChatGPT, Twoje pytanie leci do serwerów OpenAI, tam "myśli" potężny komputer, a odpowiedź wraca do Ciebie. To działa jak rozmowa przez telefon — potrzebujesz połączenia, operator (w tym przypadku OpenAI) widzi, o co pytasz.

Lokalne AI to coś innego. Jakbyś miał ChatGPT zainstalowanego bezpośrednio na swoim komputerze. Wszystko dzieje się u Ciebie. Zero internetu, zero serwerów, zero firm czytających Twoje zapytania.

W teorii — tak.

Ollama obiecywała prostotę

Ollama to narzędzie, które ma sprawić, że uruchomienie AI na własnym komputerze będzie dziecinnie proste. Pobierasz program, wpisujesz kilka komend w terminalu (taki czarny ekran z tekstem, który programiści uwielbiają), i teoretycznie jesteś gotowy.

Autor eksperymentu wybrał model Llama 4 Scout — jeden z modeli AI od Mety (firmy, która stoi za Facebookiem). To względnie "lekki" model, który powinien działać na zwykłym komputerze.

Instalacja? Poszła gładko. Uruchomienie? Też. Problem zaczął się w momencie, gdy padło pierwsze pytanie.

Kiedy czekanie staje się torturą

Pierwsze zapytanie brzmiało niewinnie: "Napisz mi krótki artykuł o AI".

ChatGPT odpowiedziałby w kilka sekund. Ollama na M1? Zaczęła "myśleć". I myślała. I myślała dalej.

Kilka minut później tekst zaczął się pojawiać — litera po literze, jakby AI pisała na starożytnej maszynie do pisania. Nie płynnie, nie szybko. Wolno. Boleśnie wolno.

Dla porównania: zapytanie w ChatGPT zajmuje 3-5 sekund. To samo lokalnie? Spokojnie 2-3 minuty. A czasem więcej.

Mac M1 to nie jest słaby komputer. To maszyna, która w 2026 roku wciąż radzi sobie z większością zadań bez problemu. Ale AI? To inna liga.

Dlaczego to w ogóle takie wolne

Modele AI to gigantyczne "mózgi" zbudowane z miliardów parametrów. Parametr to coś jak pojedyncza komórka w ludzkim mózgu — im więcej ich masz, tym model jest "mądrzejszy", ale też bardziej wymagający.

Llama 4 Scout, którą testował autor, to model z około 3 miliardami parametrów. To wersja "light". Dla porównania — GPT-5 ma ich setki miliardów.

Kiedy uruchamiasz taki model na swoim komputerze, wszystkie te parametry muszą się zmieścić w pamięci RAM (takiej szybkiej pamięci, z której komputer korzysta na bieżąco). Potem procesor musi "przesuwać" przez nie Twoje zapytanie, obliczać, analizować.

To jak próba przeczytania encyklopedii w poszukiwaniu jednego faktu — tylko że encyklopedia ma 50 tomów i musisz to zrobić sam, bez pomocy.

Serwery OpenAI? Mają setki specjalistycznych chipów GPU (procesory graficzne, które świetnie radzą sobie z AI), terabajty pamięci i infrastrukturę wartą miliony dolarów. Twój Mac? Ma jeden chip i 8-16 GB RAM.

Prywatność vs wygoda — klasyczny dylemat

Lokalne AI ma jedną gigantyczną zaletę: prywatność.

Jeśli jesteś prawnikiem analizującym poufne dokumenty, lekarzem przeglądającym dane pacjentów, czy po prostu kimś, kto nie chce, by wielkie firmy wiedziały, o co pytasz AI — lokalne modele są jedynym sensownym rozwiązaniem.

Zero danych nie opuszcza Twojego komputera. Nikt nie buduje na Tobie profilu. Nikt nie "uczy" swojego modelu na Twoich zapytaniach.

Ta prywatność ma swoją cenę. Kosztuje czas, kosztuje wygodę, kosztuje nerwy.

Dla większości ludzi odpowiedź ChatGPT w 5 sekund wygrywa z odpowiedzią lokalnego modelu w 3 minuty. Nawet jeśli ta pierwsza teoretycznie mogłaby trafić na serwery OpenAI.

Czy to w ogóle ma sens w 2026

Rok temu lokalne AI brzmiało jak science fiction dla geeków. Dziś — dzięki narzędziom jak Ollama — jest dostępne dla każdego, kto potrafi wpisać kilka komend.

Problem w tym, że "dostępne" nie znaczy "użyteczne".

Jeśli masz komputer z potężną kartą graficzną (np. Nvidia RTX 4090), lokalne modele mogą działać przyzwoicie. Jeśli masz Maca M1, M2 czy zwykły laptop? Przygotuj się na frustrację.

I tu pojawia się pytanie: dla kogo to w ogóle jest?

Dla entuzjastów technologii, którzy chcą eksperymentować. Dla firm z ekstremalnie wysokimi wymaganiami bezpieczeństwa. Dla programistów budujących własne rozwiązania.

Dla zwykłego użytkownika, który chce szybko dostać odpowiedź na pytanie? Raczej nie.

Co z tego wynika

Eksperyment z Ollama to lekcja pokory. Nie dla technologii — ta działa. Dla oczekiwań.

Lokalne AI w 2026 roku to wciąż nisza. Działa, ale wymaga kompromisów. Albo akceptujesz wolniejsze odpowiedzi, albo inwestujesz w drogi sprzęt, albo wracasz do chmury.

Nie oznacza to, że lokalne modele nie mają przyszłości. Mają. Modele stają się coraz bardziej efektywne, komputery coraz mocniejsze. Za rok, dwa — sytuacja może wyglądać zupełnie inaczej.

Dziś? Jeśli liczysz na "magię" — możesz się rozczarować. Jak autor tego eksperymentu.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.