Hugging Face i VirusTotal łączą siły w walce z malware w AI
Źródło: Link
Źródło: Link
Pobierasz model AI z internetu i uruchamiasz go na swoim komputerze. Co może pójść nie tak? Okazuje się, że całkiem sporo – szczególnie gdy w grę wchodzą pliki pickle, które potrafią wykonać dowolny kod Pythona. Hugging Face postanowił rozwiązać ten problem, łącząc siły z VirusTotal.
Współpraca między największą platformą do udostępniania modeli AI a liderem w dziedzinie analizy malware to odpowiedź na rosnące zagrożenia. Integracja działa już teraz i automatycznie skanuje podejrzane pliki przesyłane przez użytkowników.
Hugging Face zintegrował API VirusTotal ze swoim systemem bezpieczeństwa. Gdy przesyłasz plik pickle (popularny format serializacji w Pythonie), platforma automatycznie przekazuje go do analizy. VirusTotal sprawdza plik za pomocą ponad 70 silników antywirusowych i narzędzi do wykrywania zagrożeń.
Wyniki skanowania pojawiają się w panelu bezpieczeństwa repozytorium. Jeśli VirusTotal wykryje coś podejrzanego, właściciel modelu i zespół Hugging Face otrzymują powiadomienie. To szczególnie istotne, bo pliki pickle mogą zawierać nie tylko wagi modelu, ale też ukryty kod wykonujący się przy deserializacji. I tu właśnie czai się problem.
Format pickle jest wygodny, ale niebezpieczny. W przeciwieństwie do czystych danych, pickle może zawierać instrukcje wykonywalne. Atakujący może ukryć w modelu kod, który wykradnie Twoje dane, zainstaluje backdoora lub zaszyfruje dysk.
Hugging Face od dawna ostrzega przed tym ryzykiem i promuje bezpieczniejsze formaty jak safetensors. Teraz dodaje kolejną warstwę ochrony – każdy podejrzany plik trafia pod lupę dziesiątek systemów wykrywania zagrożeń.
Jeśli publikujesz modele na Hugging Face, zyskujesz dodatkową weryfikację za darmo. System działa automatycznie i nie wymaga żadnej konfiguracji. Dla osób pobierających modele to sygnał, że platforma traktuje bezpieczeństwo poważnie.
VirusTotal przetwarza już miliony plików dziennie, a jego baza znanych zagrożeń jest na bieżąco aktualizowana. Integracja z Hugging Face oznacza, że ta wiedza trafia bezpośrednio do ekosystemu AI – tam, gdzie modele zmieniają właścicieli tysiące razy dziennie.
To nie koniec wysiłków na rzecz bezpieczeństwa. Hugging Face planuje rozszerzyć współpracę i dodać więcej narzędzi do wykrywania zagrożeń. W międzyczasie najlepszą praktyką pozostaje używanie formatów takich jak safetensors i weryfikacja źródła pobieranych modeli.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar