Polskie firmy w końcu płacą za bezpieczeństwo AI. Nie tylko gadają
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Kolega z działu IT zapytał mnie wczoraj, czy nasza firma ma jakąkolwiek politykę bezpieczeństwa dla ChatGPT">ChatGPT. Nie wiedział, że połowa zespołu marketingu wrzuca tam już dane klientów "bo przecież to tylko do testów". Znam to.
Dobra wiadomość: polskie firmy w końcu przestały tylko gadać o bezpieczeństwie AI i zaczęły płacić. Badanie EY "Jak polskie firmy wdrażają AI" z ostatniego kwartału 2025 roku pokazuje, że 60% przedsiębiorstw realnie inwestuje w zabezpieczenia. To nie są już tylko slajdy na prezentacji dla zarządu. To konkretne budżety, szkolenia i procedury.
Ranking zagrożeń wygląda jak lista lęków każdego CTO, który próbował zasnąć po przeczytaniu raportu o wyciekach danych:
Te liczby nie są abstrakcją. To konkretne scenariusze, które działy bezpieczeństwa muszą teraz obsługiwać - obok wszystkich "tradycyjnych" zagrożeń cybernetycznych.
70% firm szkoli pracowników z bezpiecznego używania AI. To To przypomina nudny obowiązek. Sprawdź jednak: czy Ty wiesz, że nie powinieneś wklejać do ChatGPT danych klientów? A Twoja koleżanka z marketingu? A praktykant, który dostał dostęp do CRM-a w zeszłym tygodniu?
65% przedsiębiorstw wdrożyło polityki bezpieczeństwa AI. Mają spisane zasady, kto może używać jakich narzędzi i do czego. Nie "prosimy o rozsądek", ale "jeśli użyjesz publicznego modelu do danych klientów, mamy problem".
60% firm testuje modele AI pod kątem bezpieczeństwa przed wdrożeniem. To jak test penetracyjny, tylko że sprawdzasz, czy model nie wygada za dużo, nie da się zmanipulować promptem, nie generuje treści, które narazą firmę na pozew.
55% przeprowadza regularne audyty systemów AI. Nie tylko "wdrożyliśmy i zapomnieliśmy", ale "co miesiąc sprawdzamy, czy wszystko działa tak, jak powinno".
Największy ból? Brak standardów. Nawet giganci jak Apple i Google dopiero uczą się, jak zabezpieczać AI na poziomie systemowym. W Polsce każda firma wymyśla swoje procedury od zera.
To oznacza, że:
Badanie EY pokazuje też, że firmy widzą potrzebę współpracy z regulatorami i ekspertami zewnętrznymi. Przyznają wprost: "sami nie damy rady, potrzebujemy pomocy".
Jeśli pracujesz w firmie, która używa AI - a prawdopodobnie używa, nawet jeśli oficjalnie "nie wdrożyła" - zrób jedną rzecz:
Zapytaj swojego szefa IT, czy macie politykę bezpieczeństwa AI. Nie "czy myśleliście o tym", ale "czy mamy spisane zasady, które wszyscy znają".
Jeśli odpowiedź brzmi "nie" albo "planujemy" - to jest Twój sygnał, że firma jest w 40% tych, które wciąż tylko mówią. I że warto to zmienić, zanim ktoś wklei do ChatGPT coś, czego nie powinien.
Jeśli jesteś w dziale IT lub bezpieczeństwa:
To nie są wielkie projekty. To konkretne kroki, które możesz zrobić w tym tygodniu. Badanie EY pokazuje, że 60% firm już to robi - wiedzą, że warto.
Reszta? Pewnie dowie się, dlaczego warto, gdy będzie za późno. Nie bądź w tej grupie.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar