ChatGPT sprawdza wiek użytkowników. Jak to działa?
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
OpenAI właśnie uruchomiło coś, co przypomina scenariusz science fiction — ChatGPT teraz próbuje zgadnąć, ile masz lat. Na podstawie tego, jak piszesz, algorytm ma rozpoznawać nieletnich i automatycznie blokować im dostęp do pewnych treści.
I nie, to nie eksperyment. To już działa.
System analizuje Twój sposób pisania. Długość zdań. Słownictwo. Jak budujesz myśli. O co pytasz. Z tego wszystkiego wyciąga wnioski — ile możesz mieć lat.
Grafolog potrafi wywnioskować wiek z pisma odręcznego. Tutaj to samo, tylko że robi to algorytm. I zamiast analizować kształt liter, przegląda Twoje wiadomości.
OpenAI zapowiedziało plany wprowadzenia tej funkcji już w grudniu 2025 roku. Teraz system trafia do użytkowników na całym świecie. W Europie pojawi się "w nadchodzących tygodniach" — firma musi najpierw dopełnić formalności związanych z RODO i lokalnymi przepisami.
Jeśli ChatGPT uzna, że jesteś nieletni, zacznie działać inaczej. Część tematów stanie się niedostępna. Odpowiedzi będą… ostrożniejsze.
Nie chodzi o cenzurę — chodzi o dostosowanie treści do wieku. Filmy mają kategorie wiekowe, teraz ChatGPT dostaje podobny mechanizm.
Problem? System nie jest nieomylny.
Może pomylić dorosłego, który pisze krótko i zwięźle, z nastolatkiem. Albo nastolatka z bogatym słownictwem z trzydziestolatkiem. I tu pojawia się pytanie: czy algorytm powinien decydować o tym, do czego masz dostęp?
Presja rośnie. Rządy, organizacje, rodzice — wszyscy pytają: jak chronicie dzieci przed nieodpowiednimi treściami?
ChatGPT odpowie na prawie każde pytanie. I tu jest haczyk — "prawie każde" oznacza też te pytania, na które 12-latek może nie być gotowy usłyszeć odpowiedzi.
OpenAI zaktualizowało też wytyczne dotyczące ochrony nieletnich. Nowe zasady mają sprawić, że system będzie bardziej odpowiedzialny. Mniej ryzykowny dla młodszych użytkowników.
Pytanie brzmi: czy to wystarczy? Czy algorytm naprawdę potrafi ocenić, kto siedzi po drugiej stronie.
Przewidywanie wieku na podstawie tekstu to nie czarna magia. To statystyka. I jak każda statystyka — bywa zawodna.
piszesz szybko, skrótowo, bo jesteś w pośpiechu. System może uznać, że jesteś nastolatkiem. Albo odwrotnie — Twoje dziecko pisze wypracowanie w stylu, który algorytm oceni jako "dorosły".
Fałszywe alarmy będą. Pytanie: jak często.
OpenAI nie ujawnia szczegółów technicznych. Nie wiemy, jak dokładny jest ten system. Nie wiemy, na jakiej próbie go testowano. Nie wiemy, czy działa równie dobrze dla wszystkich języków i kultur.
Jazda po omacku — z dobrymi intencjami, ale bez mapy.
Jeśli jesteś dorosły, prawdopodobnie nic się nie zmieni. System powinien Cię rozpoznać i pozwolić korzystać z ChatGPT bez ograniczeń.
Jeśli masz dzieci, które używają ChatGPT — to może być dla Ciebie istotna informacja. Narzędzie dostaje wbudowany mechanizm ochronny. Niedoskonały, owszem. Ale jednak.
Czy to zastąpi rozmowę z dzieckiem o bezpiecznym korzystaniu z AI? Absolutnie nie.
Czy to lepsze niż nic? Chyba tak.
OpenAI stawia na automatyzację ochrony. Algorytm ma pilnować, kto widzi co. Tylko że pytań jest więcej niż odpowiedzi.
Czy system będzie działał tak samo w Warszawie i w San Francisco? Czy uwzględnia różnice kulturowe? Czy nastolatek z Polski pisze inaczej niż nastolatek z USA.
I najważniejsze: czy to w ogóle właściwy kierunek? Czy powierzamy algorytmom decyzje, które powinni podejmować ludzie.
Nie mam gotowej odpowiedzi. Mam wrażenie, że OpenAI też nie.
System rusza. Zobaczymy, jak sprawdzi się w praktyce. I czy nie okaże się, że rozwiązując jeden problem, stworzyliśmy trzy nowe.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar