Google wypuszcza Gemma 4 i zmienia licencję. Otwarte modele wracają
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Mówią, że Google nie potrafi w otwarte modele? Przez rok milczeli, podczas gdy Meta wypuszczała kolejne wersje Llamy, a Mistral AI zbierało setki milionów. Teraz publikują Gemma 4 — i zmieniają zasady gry, przerzucając się na licencję Apache 2.0.
To pierwsza poważna aktualizacja od premiery Gemmy w lutym 2025 roku. Rok to wieczność w świecie AI. Nowe modele pojawiają się co kilka tygodni. Google właśnie pokazało, że nadal chce grać w lidze otwartych modeli — tylko na swoich warunkach.
Poprzednie wersje Gemmy działały na własnej licencji Google. Nie była restrykcyjna, ale wymagała czytania dokumentacji prawnej i sprawdzania, czy Twój przypadek użycia się kwalifikuje. Apache 2.0 to standard. Znasz go, Twój prawnik zna go, Twój szef zna go.
Licencja Apache 2.0 pozwala na praktycznie wszystko: użytek komercyjny, modyfikacje, dystrybucję, nawet zamknięte implementacje. Jedyny warunek? Musisz zachować informacje o prawach autorskich i licencji. To tyle.
Dla firm to ogromna różnica. Wcześniej wdrożenie Gemmy wymagało konsultacji z działem prawnym. Teraz? Pobierasz, testujesz, wdrażasz. Tak jak z każdym innym narzędziem open source.
Google ma Gemini 3 Pro i Gemini 3.1 Flash — swoje flagowe modele zamknięte. Po co im Gemma?
Otwarte modele to pole testowe. Deweloperzy eksperymentują, znajdują błędy, budują aplikacje — i Google dostaje feedback bez wydawania miliardów na własne testy. Poza tym każdy, kto uczy się AI na Gemmie, prawdopodobnie później sięgnie po płatne API Gemini. Inwestycja w ekosystem.
Google nie podało pełnej specyfikacji technicznej, ale wiemy kilka rzeczy. Gemma 4 to rodzina modeli — nie jeden model, ale kilka wariantów dostosowanych do różnych zadań. Podobnie jak poprzednie wersje, prawdopodobnie dostaniemy wersje 2B, 7B i 27B parametrów.
Rok rozwoju to czas na poprawę wydajności, lepsze dostrajanie, optymalizację pod kątem konkretnych zadań. Gemma 3 (poprzednia wersja) radziła sobie dobrze z kodem i analizą tekstu, ale miała problemy z długim kontekstem. Jeśli Google naprawiło te słabości, Gemma 4 może realnie konkurować z modelami Mistral AI czy Meta Llama 4.
W marcu 2026 roku otwarte modele to już nie hobby dla entuzjastów. Meta wypuściło Llama 4 Scout z kontekstem 10 milionów tokenów. Mistral AI ma modele dostosowane pod europejskie regulacje. Nawet xAI Elona Muska testuje Grok 4.20 Beta z kolaboracją czterech agentów.
Gemma 4 musi udowodnić, że nie jest tylko projektem PR-owym. Deweloperzy nie wybiorą modelu, bo "Google tak powiedział" — wybiorą ten, który działa najlepiej w ich przypadku użycia. Benchmarki pokażą prawdę w ciągu kilku tygodni.
Polska firma, która chce wdrożyć AI, ma teraz jedną opcję więcej. Licencja Apache 2.0 to zielone światło dla działów prawnych — nie trzeba tłumaczyć, czym jest "Gemma Terms of Use" i czy można użyć modelu w aplikacji dla klienta z branży finansowej.
Otwarte modele pozwalają hostować AI na własnych serwerach. Dla firm, które nie mogą wysyłać danych do chmury (banki, szpitale, kancelarie prawne), to jedyna sensowna opcja. Gemma 4 daje im alternatywę dla Llamy czy Mistral — i to z ekosystemem Google w tle.
Regulacje AI Act w UE zaczynają obowiązywać — i otwarte modele dają większą kontrolę nad tym, jak AI przetwarza dane. Możesz audytować kod, testować bias, dokumentować decyzje. Z zamkniętymi modelami jak ChatGPT czy Claude dostajesz czarną skrzynkę.
Tak, model jest darmowy do pobrania i użycia — nawet komercyjnie. Płacisz tylko za infrastrukturę (serwery, GPU), jeśli hostujesz go samodzielnie. Możesz też użyć płatnych usług Google Cloud, jeśli nie chcesz zarządzać serwerami.
Google nie podało oficjalnie listy języków, ale poprzednie wersje Gemmy radziły sobie z polskim na poziomie podstawowym. Nie oczekuj jakości Gemini 3 Pro, ale do prostych zadań (klasyfikacja tekstu, podsumowania) powinno wystarczyć. Testy pokażą prawdę.
To dwie różne linie produktów. Gemini 3 to zamknięty model dostępny przez API — płacisz za tokeny, dostajesz najlepszą wydajność. Gemma 4 to otwarty model — pobierasz, hostujesz, nie płacisz za użycie, ale musisz zarządzać infrastrukturą. Gemini jest mocniejszy, Gemma daje kontrolę.
Rok milczenia to długo. Meta w tym czasie wypuściło trzy wersje Llamy. Mistral AI zebrało 830 milionów dolarów i buduje europejskie AI pod Paryżem. Google przez ten czas... testowało Gemini w nakładkach i integrowało AI z Fitbitem.
Gemma 4 to sygnał, że Google nie odpuszcza otwartych modeli. Zmiana licencji to nie kosmetyka — to strategiczna decyzja, która ma przyciągnąć firmy i deweloperów. Pytanie brzmi: czy to wystarczy, żeby dogonić konkurencję?
Odpowiedź poznamy za kilka miesięcy. Jeśli Gemma 4 okaże się konkurencyjna w benchmarkach i łatwa we wdrożeniu, Google ma szansę. Jeśli to kolejny projekt, który dostanie wsparcie na rok i zniknie — deweloperzy wrócą do Llamy. Sprawdzam.
Na podstawie: Ars Technica
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar