ChatGPT i Claude zaczną wykrywać, czy jesteś nastolatkiem
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
OpenAI właśnie zaktualizował zasady działania ChatGPT">ChatGPT. Chatbot ma teraz wykrywać, czy rozmawia z nastolatkiem — i odpowiednio dostosowywać odpowiedzi. Anthropic idzie o krok dalej: Claude będzie próbował identyfikować użytkowników poniżej 18 roku życia i blokować im dostęp.
Już tłumaczę.
Nie przez pytanie "Ile masz lat?". To byłoby zbyt proste. I nieskuteczne.
OpenAI i Anthropic stawiają na analizę stylu pisania. Algorytmy uczą się rozpoznawać wzorce charakterystyczne dla młodszych użytkowników: sposób formułowania pytań, używane słownictwo, tempo konwersacji. Jak doświadczony nauczyciel, który po kilku zdaniach orientuje się, z kim rozmawia.
Problem? Żaden system nie jest bezbłędny. 45-latek piszący krótko i kolokwialnie może zostać oznaczony jako nastolatek. A 16-latek z formalnym stylem — jako dorosły. Ciekawe, prawda?
OpenAI zaktualizował wytyczne dla ChatGPT dotyczące rozmów z użytkownikami między 13 a 17 rokiem życia. Chatbot ma teraz:
Przykład? Jeśli 15-latek zapyta o poradę związaną ze zdrowiem psychicznym, ChatGPT zasugeruje rozmowę z rodzicem lub specjalistą. Zamiast próbować "pomóc" samodzielnie.
Rozsądne. Ale rodzi pytanie: czy AI powinien w ogóle próbować być terapeutą dla kogokolwiek?
Claude idzie inną drogą. Anthropic pracuje nad systemem, który ma wykrywać użytkowników poniżej 18 roku życia i... po prostu ich wyrzucać.
Nie ma dostosowanych odpowiedzi. Nie ma specjalnego trybu dla nastolatków. Masz mniej niż 18 lat? Drzwi zamknięte.
Dlaczego taka różnica w podejściu? OpenAI oficjalnie zezwala na korzystanie z ChatGPT od 13 roku życia — za zgodą rodziców. Anthropic stawia poprzeczkę wyżej. Claude jest dla dorosłych. Kropka.
Który model lepszy? Zależy, kogo pytasz. Rodzice 14-latka korzystającego z ChatGPT do odrabiania lekcji pewnie docenią zabezpieczenia OpenAI. Rodzice obawiający się wpływu AI na dzieci — podejście Anthropic.
Szczerze? Nikt nie wie.
Systemy wykrywania wieku na podstawie stylu pisania to nowość. Brak długoterminowych badań skuteczności. A historia internetu uczy, że młodzi użytkownicy są zaskakująco kreatywni w obchodzeniu zabezpieczeń.
Pamiętasz zaznaczanie "Mam 18 lat" na stronach? Działało świetnie. Dla nikogo.
Tym razem technologia jest bardziej zaawansowana — opiera się na analizie zachowań, nie deklaracjach. Nadal jednak to domysły. Analiza stylu pisania to nie dowód tożsamości. To prawdopodobieństwo. A prawdopodobieństwo oznacza błędy.
Fałszywe pozytywy — dorośli oznaczeni jako nieletni — będą irytować. Fałszywe negatywy — nieletni przechodzący przez filtr — podważą sens całego systemu.
Te zmiany nie spadły z nieba. Firmy AI są pod rosnącą presją regulatorów — szczególnie w Europie i Stanach Zjednoczonych.
Pytania są proste: Jak chronicie dzieci? Jak zapobiegacie szkodliwym treściom? Co robicie, gdy nieletni prosi AI o pomoc w niebezpiecznej sytuacji.
OpenAI i Anthropic odpowiadają: "Pracujemy nad tym". I faktycznie — te ogłoszenia to efekt tej pracy.
Regulatorzy chcą jednak więcej niż deklaracji. Chcą konkretów. Danych. Dowodów skuteczności. A tych jeszcze nie ma — bo systemy dopiero startują.
Najbliższe miesiące pokażą, czy to wystarczy, by uspokoić urzędników. I rodziców.
Jeśli jesteś dorosłym użytkownikiem, prawdopodobnie nic się nie zmieni. Chyba że piszesz bardzo kolokwialnie — wtedy możesz spotkać się z niespodziewanymi ograniczeniami.
Jeśli masz dzieci korzystające z AI, to dobra wiadomość. Przynajmniej w teorii. W praktyce skuteczność tych systemów pozostaje niewiadomą.
A jeśli jesteś nastolatkiem? Witaj w świecie, gdzie AI próbuje zgadnąć Twój wiek po tym, jak piszesz. Dystopijnie? Trochę. To dopiero początek.
Prawdziwe pytanie brzmi inaczej: czy w ogóle powinniśmy pozwalać firmom AI na profilowanie użytkowników na podstawie stylu pisania? To przecież dane behawioralne — intymne, subtelne, trudne do kontrolowania.
OpenAI i Anthropic mówią: to dla bezpieczeństwa dzieci. I pewnie mają rację. Tyle że ta sama technologia może służyć do innych celów. Mniej szlachetnych.
Historia technologii uczy: narzędzia stworzone z dobrych intencji rzadko zostają przy pierwotnym zastosowaniu.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar