Londyn zaprasza Anthropic. USA ogłasza firmę zagrożeniem
Źródło: Link
Źródło: Link
Koleżanka z działu HR pokazała mi wczoraj ofertę pracy od Anthropic w Londynie. "Dobra firma, ale słyszałam, że mają problemy w Stanach" – powiedziała. Miała rację. Tylko że te "problemy" to nie zwykły kryzys wizerunkowy.
Sadiq Khan, burmistrz Londynu, wysłał do Anthropic oficjalny list z zaproszeniem do rozbudowy działalności w brytyjskiej stolicy. Nic nadzwyczajnego – miasta regularnie konkurują o firmy technologiczne. Problem? List dotarł do adresata mniej więcej wtedy, gdy administracja USA umieściła Anthropic na liście firm stanowiących "ryzyko dla łańcucha dostaw".
Decyzja USA brzmi technicznie. Ma konkretne konsekwencje. Firmy oznaczone jako ryzyko dla łańcucha dostaw mogą mieć ograniczony dostęp do kluczowych komponentów – w przypadku Anthropic chodzi głównie o zaawansowane chipy do trenowania modeli AI.
Administracja nie podała publicznie szczegółowych powodów tej decyzji. Oficjalne komunikaty mówią o "ocenie ryzyka związanego z bezpieczeństwem narodowym". W praktyce może to oznaczać wszystko – od obaw o transfer technologii po kwestie związane z kontrolą nad danymi treningowymi.
Anthropic to firma stojąca za Claude – jednym z najbardziej zaawansowanych modeli językowych na rynku. Model konkuruje bezpośrednio z GPT-4 i regularnie pojawia się w zestawieniach jako alternatywa dla rozwiązań OpenAI.
List burmistrza Londynu to nie tylko grzecznościowy gest. Khan wprost zaprasza Anthropic do zwiększenia obecności w mieście. Podkreśla gotowość władz lokalnych do wsparcia ekspansji firmy.
Anthropic już ma biuro w Londynie. Firma otworzyła je w 2023 roku i zatrudnia tam zespół badawczy pracujący nad bezpieczeństwem AI. Teraz Khan proponuje coś więcej – pełnoprawną bazę operacyjną poza USA.
Timing jest interesujący. Wielka Brytania od miesięcy pozycjonuje się jako przyjazne miejsce dla firm AI, które czują się niekomfortowo pod rosnącą presją regulacyjną w USA. Londyn ma infrastrukturę, talenty i – co istotne – dostęp do europejskiego rynku bez pełnego obciążenia unijnymi regulacjami. Jeden z niewielu plusów Brexitu, jeśli ktoś ich szuka.
Anthropic przez lata był postrzegany jako "bezpieczniejsza" alternatywa dla OpenAI. Firma została założona przez byłych pracowników OpenAI, którzy odeszli z powodu obaw o kierunek rozwoju firmy. Ich misja brzmiała jasno: budować AI bezpieczniej, wolniej, z większą kontrolą.
Teraz ta sama firma ląduje na liście zagrożeń. Co się zmieniło?
Prawdopodobnie chodzi o inwestorów. Anthropic pozyskał miliardy dolarów finansowania od firm takich jak Google i – co kluczowe – od funduszy powiązanych z rządami innych krajów. USA coraz bardziej nerwowo reaguje na sytuacje, gdzie zaawansowana technologia AI może być pośrednio kontrolowana przez podmioty spoza amerykańskiej jurysdykcji.
Nvidia niedawno wycofała się z inwestycji w Anthropic – oficjalnie z powodów regulacyjnych. Teraz widzimy, że to był tylko wierzchołek góry lodowej.
Na razie – nic. Claude działa normalnie, firma obsługuje klientów bez zakłóceń. Oznaczenie jako ryzyko dla łańcucha dostaw nie jest zakazem działalności.
Problem pojawi się, jeśli USA zdecyduje się na kolejny krok – faktyczne ograniczenie dostępu do chipów. Anthropic potrzebuje zaawansowanych procesorów Nvidia do trenowania kolejnych wersji Claude. Bez nich rozwój modelu może zwolnić. W skrajnym scenariuszu – zatrzymać się całkowicie.
Dlatego oferta Khana ma sens. Londyn może nie ma własnej produkcji chipów, ale ma dostęp do globalnych łańcuchów dostaw, które nie są bezpośrednio kontrolowane przez USA. Poza tym Wielka Brytania prowadzi własną politykę wobec AI – mniej restrykcyjną niż unijna, bardziej przewidywalną niż amerykańska.
Jeśli prowadzisz firmę w Polsce i używasz Claude w codziennej pracy, na razie możesz spać spokojnie. Europejscy użytkownicy nie są bezpośrednio dotknięci decyzją USA.
Długoterminowo warto obserwować, jak Anthropic zareaguje na zaproszenie Khana. Jeśli firma zdecyduje się na poważną ekspansję w Londynie, może to oznaczać silniejsze zakorzenienie w Europie. Lepsze wsparcie dla klientów. Szybsze wdrażanie funkcji dostosowanych do lokalnych regulacji – RODO, AI Act, może nawet polskojęzyczne interfejsy.
Z drugiej strony, jeśli USA pójdzie dalej i faktycznie ograniczy Anthropic dostęp do chipów, rozwój Claude może wyhamować. Wtedy pytanie brzmi: czy Londyn wystarczy jako baza do budowania konkurencyjnego modelu AI?
Odpowiedź poznamy w ciągu najbliższych miesięcy. Khan wysłał zaproszenie. Teraz kolej na Anthropic – i na reakcję Waszyngtonu.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar