Salesforce blokuje ChatGPT. Chodzi o Twoje dane
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Salesforce ogłosił integrację z ChatGPT. To przypomina kolejny krok w stronę ułatwienia pracy z AI, prawda?
No nie do końca. To jeden z bardziej podstępnych mechanizmów ochrony danych. Nie chodzi tu o dawanie Ci większych możliwości. Chodzi o powstrzymanie przed robieniem czegoś głupiego.
siedzisz w CRM-ie (Customer Relationship Management — czyli systemie, gdzie firma trzyma wszystkie dane o klientach). Przed sobą masz listę 500 kontaktów. Potrzebujesz napisać spersonalizowane maile. Albo podsumować notatki ze spotkań. Albo przygotować raport dla szefa.
Co robisz?
Otwierasz ChatGPT w drugiej zakładce. Kopiujesz dane. Wklejasz. Prosisz AI o pomoc.
I właśnie w tym momencie firma traci kontrolę nad swoimi danymi.
Bo te informacje — imiona, adresy email, numery telefonów, historie zakupów — trafiają na serwery OpenAI. Tam zostają. Mogą być użyte do treningu modelu (chyba że firma wykupiła specjalny plan). Mogą wyciec. Mogą trafić do niewłaściwych rąk.
Salesforce wie o tym doskonale. I wie, że zakazami się tego nie powstrzyma.
Teraz Salesforce oferuje ChatGPT bezpośrednio w swoim systemie. Nie musisz otwierać nowej zakładki. Nie musisz niczego kopiować. AI jest tuż obok Twoich danych.
Ale — i tu jest haczyk — firma kontroluje, co AI widzi.
Zamiast dawać ChatGPT pełny dostęp do bazy klientów, Salesforce filtruje dane. Maskuje wrażliwe informacje. Ogranicza kontekst. Wszystko dzieje się w kontrolowanym środowisku, gdzie IT ma wgląd w to, co pracownicy robią.
To jak dać dziecku tablet z kontrolą rodzicielską zamiast pozwolić mu surfować po internecie bez nadzoru.
Tylko że w tym przypadku dzieckiem jesteś Ty. A rodzicem — dział bezpieczeństwa.
Dla przeciętnego użytkownika Salesforce'a zmienia się niewiele. Nadal możesz poprosić AI o pomoc. Nadal możesz automatyzować nudne zadania. Nadal oszczędzasz czas.
Firma zyskuje za to coś bezcennego: kontrolę.
Zamiast martwić się, że ktoś przypadkowo wklei do publicznego ChatGPT listę wszystkich klientów premium, IT może spać spokojnie. Dane nie wychodzą poza system. Logi są zapisywane. Jeśli ktoś próbuje zrobić coś niebezpiecznego, firma to widzi.
To nie jest funkcja dla Ciebie. To funkcja dla Twojego pracodawcy.
Salesforce nie jest pierwszy. Microsoft robi to samo z Copilot w Microsoft 365. Google — z Gemini w Workspace. Notion — ze swoim AI wbudowanym w notatki.
Wszyscy wiedzą, że pracownicy i tak będą używać AI. Więc zamiast walczyć z tym, dają im kontrolowane narzędzia. Narzędzia, które wyglądają jak swoboda, ale działają jak klatka.
I szczerze? Ma to sens.
Bo problem nie polega na tym, że ludzie są złośliwi. Problem polega na tym, że są nieświadomi. Nikt nie wkleja danych klientów do ChatGPT z zamiarem wyrządzenia szkody. Robią to, bo jest szybko. Bo działa. Bo nikt im nie powiedział, że to ryzyko.
Integracja to sposób na ochronę przed naiwnością.
Jeśli pracujesz w firmie, która używa Salesforce (albo podobnych narzędzi), spodziewaj się, że ChatGPT zniknie z listy dozwolonych stron. Albo zostanie zastąpiony wersją wbudowaną w system.
Jeśli prowadzisz firmę, zastanów się, ile razy Twoi pracownicy kopiowali wrażliwe dane do zewnętrznych narzędzi. Nie chodzi o to, że są nieodpowiedzialni — po prostu nie mieli lepszej opcji.
A jeśli jesteś freelancerem albo soloprzedsiębiorcą.
Gratulacje. Możesz nadal wklejać co chcesz, gdzie chcesz. Pamiętaj tylko: raz wysłane dane nie wracają.
Salesforce nie buduje integracji z ChatGPT, żeby Ci pomóc. Buduje ją, żeby powstrzymać Cię przed popełnieniem błędu, o którym nawet nie wiesz, że go popełniasz.
I może to właśnie jest najbardziej ludzka rzecz, jaką firma może zrobić.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar