Pierwsze LLM wytrenowane w kosmosie. Na karcie NVIDIA H100
Źródło: Link
Źródło: Link
Audyty, wdrożenia, szkolenia sprzedażowe i AI. Dopasowane do zespołu i procesów.
Starcloud właśnie przeszedł do historii. Firma wytrenowała modele AI na orbicie Ziemi, używając kart graficznych NVIDIA H100.
Pierwszy raz ktoś uczył sztuczną inteligencję w kosmosie.
No cóż — to już się dzieje.
Nie mówimy tu o jakichś eksperymentalnych prototypach. Starcloud wytrenował dwa konkretne modele: Google Gemma i nano-GPT.
Gemma to otwarty model od Google – mniejszy brat słynnego Gemini. Nano-GPT? Miniaturowa wersja architektury GPT, tej samej, której używa ChatGPT. Oba to LLM-y, czyli Large Language Models — "mózgi" sztucznej inteligencji, które rozumieją i generują tekst.
I teraz najważniejsze: te modele nauczyły się w przestrzeni kosmicznej. Nie na Ziemi. Nie w serwerowni w Kalifornii.
W kosmosie.
Pierwsze pytanie, które przychodzi do głowy: dlaczego? Przecież mamy mnóstwo mocy obliczeniowej tutaj, na dole.
Problem w tym, że kosmos stawia przed technologią zupełnie inne wyzwania. Promieniowanie kosmiczne, ekstremalne temperatury, brak grawitacji — wszystko to wpływa na działanie elektroniki. Jeśli chcemy kiedykolwiek budować autonomiczne systemy w przestrzeni — stacje badawcze, bazy na Księżycu, misje na Marsa — musimy wiedzieć, że AI będzie tam działać.
A najlepszy sposób, żeby się tego dowiedzieć?
Spróbować.
Starcloud właśnie to zrobił. I użył do tego NVIDIA H100 — jednej z najpotężniejszych kart graficznych do obliczeń AI. Te same chipy, których używają OpenAI, Google czy Anthropic do trenowania swoich modeli. Tyle że oni robią to na Ziemi.
Trenowanie modelu AI to w uproszczeniu: pokazywanie mu milionów przykładów i stopniowe dostrajanie jego "mózgu", żeby coraz lepiej rozumiał wzorce. Wymaga to ogromnej mocy obliczeniowej — dlatego używa się specjalistycznych procesorów graficznych (GPU), które potrafią wykonywać tysiące operacji jednocześnie.
NVIDIA H100 to topowy sprzęt w tej kategorii. Jeden taki chip przetwarza setki miliardów operacji na sekundę. Na Ziemi używa się ich w klastrach — dziesiątkach, setkach połączonych ze sobą kart, które pracują razem nad jednym modelem.
Starcloud wziął taką kartę, wysłał ją na orbitę i sprawdził, czy da się na niej uczyć AI.
Okazało się, że tak.
To dopiero pierwszy krok. Ale symboliczny.
Pokazuje, że technologia AI może działać poza Ziemią — i to nie tylko w trybie "odtwarzania" (używania wytrenowanych modeli), ale też w trybie uczenia. Na miejscu. W czasie rzeczywistym.
misję na Marsa. Komunikacja z Ziemią trwa od kilku do kilkudziesięciu minut w jedną stronę. Jeśli coś pójdzie nie tak, astronauci nie mogą po prostu "zapytać internetu". Potrzebują lokalnej inteligencji, która potrafi się uczyć i adaptować — bez czekania na wsparcie z domu.
Albo stacja badawcza na Księżycu, która analizuje dane geologiczne i sama trenuje modele do rozpoznawania interesujących formacji skalnych. Bez transferu terabajtów danych na Ziemię i z powrotem.
Starcloud pokazał, że to możliwe. I że można to zrobić na sprzęcie, który już istnieje — nie trzeba wymyślać kosmicznych procesorów od zera.
Nie oszukujmy się — to wciąż eksperyment. Nie wiemy, ile czasu zajęło trenowanie, jak stabilne było połączenie, ile energii to pochłonęło. Nie wiemy też, jak dobrze wytrenowane modele działają w porównaniu do ich ziemskich odpowiedników.
Ale to nie o to chodzi.
Chodzi o to, że ktoś w ogóle to zrobił. Pierwszy samolot braci Wright leciał 12 sekund. Dziś latamy na Marsa.
Starcloud właśnie odbył swój "lot w Kitty Hawk". Reszta to kwestia czasu.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar