Mistral AI rozmawia z Samsungiem o pamięciach. Francuzi budują
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Europejskie AI to tylko modele językowe i badania akademickie? Mistral AI właśnie pokazuje, że to mit. Francuzi nie tylko trenują modele – budują fizyczną infrastrukturę, która ma konkurować z amerykańskimi gigantami. I negocjują z Samsungiem, bo wiedzą jedno: bez odpowiednich pamięci nawet najlepsze GPU to tylko drogi metal.
Mistral AI rozmawia z Samsungiem o dostawy pamięci HBM (High Bandwidth Memory). Tego samego typu, który napędza GPU w centrach danych OpenAI czy Anthropic. Problem? SK Hynix, lider rynku HBM, ma pełne ręce roboty z dostawami dla Nvidia, AMD i innych amerykańskich klientów. Kolejki są długie. Ceny wysokie. Priorytety jasne.
Samsung to drugi gracz na rynku HBM. Technologicznie dorównuje SK Hynix, ma mniejszy udział w rynku – około 30% wobec 50% konkurenta. Dla Mistrala to szansa na stabilne dostawy bez czekania w kolejce za Meta czy Google.
Rozmowy są na wczesnym etapie – żadna ze stron nie potwierdza szczegółów. Sam fakt, że Mistral negocjuje bezpośrednio z producentem pamięci, mówi jedno: firma myśli o skali. Nie o kilkuset GPU do eksperymentów. O tysiącach jednostek pracujących 24/7.
Mistral AI przygotowuje się do otwarcia centrum danych pod Paryżem w drugim kwartale 2025 roku. Parametry są konkretne: około 14 000 GPU Nvidia (prawdopodobnie seria H100 lub nowsza H200) i początkowa moc 44 megawatów. To tyle, ile zużywa małe miasteczko.
Dla porównania: Mistral AI pożyczył niedawno 830 milionów dolarów, częściowo właśnie na infrastrukturę. Centrum pod Paryżem to fizyczny dowód, że te pieniądze idą w beton, metal i krzem – nie tylko w badania.
GPU bez szybkich pamięci to Ferrari z bakiem na 5 litrów. HBM to technologia, która pozwala procesorom graficznym przetwarzać ogromne ilości danych bez wąskich gardeł. W treningu dużych modeli językowych (a Mistral trenuje własne modele, konkurujące z Claude i GPT-5) przepustowość pamięci decyduje o czasie i kosztach.
SK Hynix dostarcza HBM głównie amerykańskim firmom. Samsung ma wolne moce produkcyjne i chce zwiększyć udział w rynku. Mistral potrzebuje stabilnych dostaw bez uzależnienia od jednego dostawcy. Układ, który ma sens dla obu stron.
Mistral AI, założony w 2023 roku przez byłych pracowników Google DeepMind i Meta, od początku pozycjonował się jako europejska odpowiedź na OpenAI. Modele językowe to jedno. Infrastruktura to drugie. Bez własnych centrów danych jesteś uzależniony od chmury AWS, Google Cloud lub Microsoft Azure. Twoje dane, modele i kontrola są w rękach amerykańskich korporacji.
Francuzi budują własną infrastrukturę. Centrum pod Paryżem to nie jedyny projekt – Mistral planuje kolejne lokalizacje w Europie. Strategia jest jasna: kontrola nad całym łańcuchem – od treningu modeli, przez hosting, po dostawy API.
Jeśli jesteś firmą w Polsce, Niemczech czy Francji i chcesz używać AI, masz dziś dwie opcje: amerykańskie modele (OpenAI, Anthropic, Google) lub chińskie (DeepSeek, Alibaba). Mistral AI buduje trzecią opcję – europejską, z serwerami w UE, pod europejskimi regulacjami (RODO, AI Act).
To nie tylko kwestia suwerenności danych. Także kwestia latencji – serwery bliżej użytkownika oznaczają szybsze odpowiedzi. I kwestia ceny – Mistral nie musi płacić marży AWS czy Azure, więc może oferować tańsze API.
SK Hynix kontroluje połowę rynku pamięci HBM. Samsung ma 30%, Micron resztę. SK Hynix ma problem – nie nadąża z produkcją. Nvidia, AMD, Google, Meta – wszyscy stoją w kolejce. Czas oczekiwania na dostawy sięga miesięcy.
Samsung inwestuje miliardy w rozbudowę fabryk HBM. Firma wie, że AI to największy boom technologiczny od dekady i nie zamierza przegapić okazji. Mistral AI to idealny klient – europejski, ambitny, z konkretnymi planami i finansowaniem. Jeśli Samsung dostarczy pamięci na czas i w dobrej cenie, może zbudować długoterminową relację z jednym z najszybciej rosnących graczy AI w Europie.
Dla Mistrala to zabezpieczenie dostaw. Dla Samsunga – wejście na rynek AI infrastruktury przez europejskie drzwi, bez walki o uwagę amerykańskich gigantów.
Centrum danych pod Paryżem to dopiero początek. Mistral AI planuje kolejne lokalizacje, rozbudowę mocy obliczeniowej i ekspansję na rynki korporacyjne. Firma już oferuje API do swoich modeli (Mistral Large, Mistral Medium), konkurując cenowo z OpenAI i Anthropic.
Rozmowy z Samsungiem pokazują, że Francuzi myślą strategicznie. Nie chodzi tylko o wynajęcie GPU w chmurze – chodzi o budowę własnej infrastruktury, kontrolę nad łańcuchem dostaw i niezależność od amerykańskich dostawców.
Czy to wystarczy, żeby dogonić OpenAI czy Anthropic? Nie w najbliższych miesiącach. Czy to buduje fundament pod europejskie AI, które nie będzie uzależnione od Doliny Krzemowej? Tak. I to jest właśnie cel.
Na podstawie: Tech in Asia
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar