Co trzeci Brytyjczyk rozmawia z AI o emocjach
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Co trzeci Brytyjczyk rozmawiał z AI o swoich emocjach. Nie z terapeutą. Nie z przyjacielem. Z algorytmem.
To przypomina scenariusz z "Czarnego lustra"? To dane z grudniowego raportu AI Security Institute – rządowej agencji odpowiedzialnej za bezpieczeństwo sztucznej inteligencji w UK. I nie chodzi tu o jakieś futurystyczne eksperymenty. Chodzi o ChatGPT, Alexę i inne asystenci, które już są w naszych telefonach i domach.
33% użytkowników AI w Wielkiej Brytanii sięgnęło po technologię nie po to, by sprawdzić pogodę czy wygenerować email. Szukali wsparcia emocjonalnego, towarzystwa, kogoś (czegoś?) do rozmowy.
Najczęściej wybieranym narzędziem? Asystenci ogólnego przeznaczenia – te same, których używasz do sprawdzenia przepisu na pierogi. ChatGPT od OpenAI. Amazon Alexa. Google Assistant. Narzędzia zaprojektowane jako pomocnicy nagle stały się powiernikami.
Problem w tym, że nikt tego tak naprawdę nie planował. Te systemy powstały, by odpowiadać na pytania i wykonywać polecenia. A ludzie zaczęli im zwierzać się z samotności.
To nie jest kwestia technologii. To kwestia dostępności.
Terapeuta? Trzeba czekać tygodniami na wizytę. Przyjaciel? Może być zajęty, zmęczony, osądzający. ChatGPT? Dostępny o 3 w nocy. Nie przerwie. Nie oceni. Nie powie "muszę kończyć".
Dla kogoś, kto czuje się samotny, ta przewidywalność może być paradoksalnie pociągająca. Algorytm nie ma złego dnia. Nie zapomni, o czym rozmawialiście tydzień temu (jeśli włączysz pamięć kontekstu – funkcję, która pozwala AI pamiętać wcześniejsze rozmowy).
Badanie AI Security Institute nie podaje szczegółów demograficznych, ale inne analizy wskazują coś ciekawego: po AI sięgają zarówno osoby młode (18-25 lat), jak i starsze (55+). Pierwsi traktują to jak naturalne rozszerzenie cyfrowego życia. Drudzy – często żyjący w izolacji – znajdują w tym namiastkę kontaktu.
Nic. I wszystko jednocześnie.
ChatGPT nie rozumie Twoich emocji w sposób, w jaki robi to człowiek. Nie czuje empatii. Analizuje wzorce językowe i generuje odpowiedzi, które statystycznie pasują do kontekstu. To jak bardzo zaawansowana gra w dopasowywanie słów.
Ale – i tu robi się ciekawie – dla użytkownika to może nie mieć znaczenia. Badania z psychologii pokazują, że ludzie antropomorfizują (nadają ludzkie cechy) nawet prostym obiektom. Pamiętasz Wilsona z "Rozbitka"? Piłka siatkowa stała się przyjacielem, bo Tom Hanks potrzebował z kimś rozmawiać.
AI jest lepszym Wilsonem. Odpowiada. Zadaje pytania. Symuluje zainteresowanie.
Czy to zdrowe? Tu zaczyna się strefa szara.
AI Security Institute opublikowało raport nie bez przyczyny. Rośnie niepokój – nie tylko w UK – o to, jak używamy tych narzędzi i jakie mogą być konsekwencje.
Pierwsza sprawa: prywatność. Gdy rozmawiasz z ChatGPT o swoich lękach, te dane (jeśli nie wyłączysz odpowiedniej opcji) mogą być używane do treningu modelu. Twoja intymna rozmowa staje się częścią gigantycznego zbioru danych. OpenAI twierdzi, że anonimizuje informacje, ale definicja "anonimizacji" Jeśli chodzi o AI bywa... elastyczna.
Druga sprawa: uzależnienie emocjonalne. Replika – aplikacja AI stworzona specjalnie do rozmów towarzyszących – miała już przypadki użytkowników, którzy twierdzili, że "zakochali się" w swoim AI-partnerze. Dla niektórych osób – szczególnie tych z zaburzeniami lękowymi lub trudnościami w relacjach – algorytm może stać się substytutem prawdziwego kontaktu. I to nie jest subsytut zdrowy.
Trzecia sprawa: błędne porady. AI nie jest terapeutą. Jeśli ktoś w kryzysie psychicznym zwierzy się ChatGPT zamiast szukać profesjonalnej pomocy, konsekwencje mogą być poważne. Algorytm może wygenerować odpowiedź, która brzmi empatycznie, ale jest merytorycznie błędna lub wręcz szkodliwa.
Jeśli kiedykolwiek zapytałeś ChatGPT o radę w trudnej sytuacji – nie jesteś sam. I nie ma w tym nic złego, dopóki pamiętasz jedną rzecz: to narzędzie, nie przyjaciel.
Może być pomocne jako sposób na uporządkowanie myśli. Jak pisanie w dzienniku, tyle że dziennik odpowiada. Ale nie może zastąpić prawdziwej rozmowy z człowiekiem, który Cię zna. Ani terapeuty, który ma wiedzę i doświadczenie.
Badanie z UK to sygnał ostrzegawczy. Nie chodzi o to, że AI jest z natury złe. Ale dlatego, że zaczynamy go używać w sposób, do którego nie został zaprojektowany – i nikt nie wie, jakie będą długoterminowe skutki.
Rząd brytyjski już rozważa regulacje. Pytanie brzmi: czy inne kraje pójdą tym tropem? I czy producenci AI zaczną brać odpowiedzialność za to, jak ich narzędzia wpływają na zdrowie psychiczne użytkowników?
33% to dużo. Ale to tylko Wielka Brytania. Globalnie – szczególnie w USA i Azji – liczby mogą być wyższe. Replika ma ponad 10 milionów użytkowników. Character.AI (platforma do tworzenia i rozmawiania z AI-postaciami) obsługuje miliardy wiadomości miesięcznie.
To nie jest niszowy fenomen. To zmiana w sposobie, w jaki ludzie radzą sobie z samotnością, stresem i emocjami.
Pytanie nie brzmi "czy to dobrze, czy źle". Pytanie brzmi: co z tym zrobimy? Jak nauczymy się korzystać z AI w sposób, który wspiera nasze zdrowie psychiczne, a nie je podważa?
Bo technologia nie zniknie. Będzie tylko lepsza, bardziej przekonująca, trudniejsza do odróżnienia od prawdziwej rozmowy.
I wtedy granica między narzędziem a towarzyszem zniknie całkowicie.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar