Odpalił AI na Macu M1 i dostał lekcję pokory
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Lokalne modele AI miały być przyszłością. Szybkie, prywatne, bez chmury. Eksperyment z Ollama pokazał, że teoria to jedno, a praktyka to drugie.
Ktoś z redakcji ZDNet postanowił sprawdzić, jak AI działa na komputerze bez wysyłania danych do serwerów OpenAI czy Google. Wziął Maca z procesorem M1, zainstalował Ollama (narzędzie do uruchamiania modeli AI lokalnie) i… no właśnie.
Nie do końca poszło zgodnie z planem.
Szybkie wyjaśnienie dla osób, które nie żyją technologią na co dzień.
Kiedy używasz ChatGPT, Twoje pytanie leci do serwerów OpenAI, tam "myśli" potężny komputer, a odpowiedź wraca do Ciebie. To działa jak rozmowa przez telefon — potrzebujesz połączenia, operator (w tym przypadku OpenAI) widzi, o co pytasz.
Lokalne AI to coś innego. Jakbyś miał ChatGPT zainstalowanego bezpośrednio na swoim komputerze. Wszystko dzieje się u Ciebie. Zero internetu, zero serwerów, zero firm czytających Twoje zapytania.
W teorii — tak.
Ollama to narzędzie, które ma sprawić, że uruchomienie AI na własnym komputerze będzie dziecinnie proste. Pobierasz program, wpisujesz kilka komend w terminalu (taki czarny ekran z tekstem, który programiści uwielbiają), i teoretycznie jesteś gotowy.
Autor eksperymentu wybrał model Llama 4 Scout — jeden z modeli AI od Mety (firmy, która stoi za Facebookiem). To względnie "lekki" model, który powinien działać na zwykłym komputerze.
Instalacja? Poszła gładko. Uruchomienie? Też. Problem zaczął się w momencie, gdy padło pierwsze pytanie.
Pierwsze zapytanie brzmiało niewinnie: "Napisz mi krótki artykuł o AI".
ChatGPT odpowiedziałby w kilka sekund. Ollama na M1? Zaczęła "myśleć". I myślała. I myślała dalej.
Kilka minut później tekst zaczął się pojawiać — litera po literze, jakby AI pisała na starożytnej maszynie do pisania. Nie płynnie, nie szybko. Wolno. Boleśnie wolno.
Dla porównania: zapytanie w ChatGPT zajmuje 3-5 sekund. To samo lokalnie? Spokojnie 2-3 minuty. A czasem więcej.
Mac M1 to nie jest słaby komputer. To maszyna, która w 2026 roku wciąż radzi sobie z większością zadań bez problemu. Ale AI? To inna liga.
Modele AI to gigantyczne "mózgi" zbudowane z miliardów parametrów. Parametr to coś jak pojedyncza komórka w ludzkim mózgu — im więcej ich masz, tym model jest "mądrzejszy", ale też bardziej wymagający.
Llama 4 Scout, którą testował autor, to model z około 3 miliardami parametrów. To wersja "light". Dla porównania — GPT-5 ma ich setki miliardów.
Kiedy uruchamiasz taki model na swoim komputerze, wszystkie te parametry muszą się zmieścić w pamięci RAM (takiej szybkiej pamięci, z której komputer korzysta na bieżąco). Potem procesor musi "przesuwać" przez nie Twoje zapytanie, obliczać, analizować.
To jak próba przeczytania encyklopedii w poszukiwaniu jednego faktu — tylko że encyklopedia ma 50 tomów i musisz to zrobić sam, bez pomocy.
Serwery OpenAI? Mają setki specjalistycznych chipów GPU (procesory graficzne, które świetnie radzą sobie z AI), terabajty pamięci i infrastrukturę wartą miliony dolarów. Twój Mac? Ma jeden chip i 8-16 GB RAM.
Lokalne AI ma jedną gigantyczną zaletę: prywatność.
Jeśli jesteś prawnikiem analizującym poufne dokumenty, lekarzem przeglądającym dane pacjentów, czy po prostu kimś, kto nie chce, by wielkie firmy wiedziały, o co pytasz AI — lokalne modele są jedynym sensownym rozwiązaniem.
Zero danych nie opuszcza Twojego komputera. Nikt nie buduje na Tobie profilu. Nikt nie "uczy" swojego modelu na Twoich zapytaniach.
Ta prywatność ma swoją cenę. Kosztuje czas, kosztuje wygodę, kosztuje nerwy.
Dla większości ludzi odpowiedź ChatGPT w 5 sekund wygrywa z odpowiedzią lokalnego modelu w 3 minuty. Nawet jeśli ta pierwsza teoretycznie mogłaby trafić na serwery OpenAI.
Rok temu lokalne AI brzmiało jak science fiction dla geeków. Dziś — dzięki narzędziom jak Ollama — jest dostępne dla każdego, kto potrafi wpisać kilka komend.
Problem w tym, że "dostępne" nie znaczy "użyteczne".
Jeśli masz komputer z potężną kartą graficzną (np. Nvidia RTX 4090), lokalne modele mogą działać przyzwoicie. Jeśli masz Maca M1, M2 czy zwykły laptop? Przygotuj się na frustrację.
I tu pojawia się pytanie: dla kogo to w ogóle jest?
Dla entuzjastów technologii, którzy chcą eksperymentować. Dla firm z ekstremalnie wysokimi wymaganiami bezpieczeństwa. Dla programistów budujących własne rozwiązania.
Dla zwykłego użytkownika, który chce szybko dostać odpowiedź na pytanie? Raczej nie.
Eksperyment z Ollama to lekcja pokory. Nie dla technologii — ta działa. Dla oczekiwań.
Lokalne AI w 2026 roku to wciąż nisza. Działa, ale wymaga kompromisów. Albo akceptujesz wolniejsze odpowiedzi, albo inwestujesz w drogi sprzęt, albo wracasz do chmury.
Nie oznacza to, że lokalne modele nie mają przyszłości. Mają. Modele stają się coraz bardziej efektywne, komputery coraz mocniejsze. Za rok, dwa — sytuacja może wyglądać zupełnie inaczej.
Dziś? Jeśli liczysz na "magię" — możesz się rozczarować. Jak autor tego eksperymentu.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar