Meta wprowadza kontrolę rodzicielską nad AI dla nastolatków
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Meta AI">Meta pokazała właśnie, jak będzie wyglądać kontrola rodzicielska nad funkcjami AI dla nastolatków. Korzystasz z Instagrama czy Facebooka i masz dzieci? Te zmiany dotyczą Cię bezpośrednio.
Firma Marka Zuckerberga zapowiedziała nowe funkcje, które trafią na jej platformy w 2026 roku. To odpowiedź na rosnące obawy dotyczące wpływu sztucznej inteligencji na młodych użytkowników. Temat, który ostatnio głośno wybrzmiewa wśród regulatorów i organizacji chroniących prawa dzieci.
Problem nabrał tempa szczególnie po tym, jak Meta zaczęła agresywnie promować swoje chatboty AI na Instagramie i Facebooku. Młodzi użytkownicy szybko zaadoptowali te narzędzia, traktując je jak wirtualnych przyjaciół czy doradców. Dla wielu rodziców stało się to źródłem niepokoju – zwłaszcza że nie mieli żadnej kontroli nad tym, o czym ich dzieci rozmawiają z algorytmami.
Najważniejsze narzędzie? Możliwość blokowania konkretnych postaci AI, z którymi nastolatki mogą rozmawiać na platformach Meta. Rodzice otrzymają też dostęp do informacji o tematach, które pojawiają się w konwersacjach ich dzieci z chatbotami.
Meta zacznie wprowadzać te funkcje stopniowo, od najbliższych miesięcy. Pełna implementacja ma nastąpić w przyszłym roku. System będzie działać podobnie do istniejących już narzędzi kontroli rodzicielskiej w Family Center (centralnego miejsca do zarządzania aktywnością dzieci na platformach Meta).
W praktyce rodzic będzie mógł zalogować się do panelu kontrolnego i zobaczyć listę wszystkich postaci AI, z którymi kontaktowało się jego dziecko. Każda z nich będzie miała krótki opis i kategorię tematyczną. Jeśli rodzic uzna, że dana postać jest nieodpowiednia – na przykład chatbot skupiony na tematach związanych z dietą czy wyglądem zewnętrznym – będzie mógł ją zablokować jednym kliknięciem.
System monitoringu tematów ma działać na zasadzie kategoryzacji. Zamiast pokazywać pełne transkrypcje rozmów, Meta będzie grupować konwersacje według ogólnych kategorii: zdrowie psychiczne, relacje, szkoła, hobby, treści kontrowersyjne. To kompromis między bezpieczeństwem a prywatnością nastolatka.
Te zmiany nie przychodzą w próżni. Meta od miesięcy znajduje się pod lupą regulatorów w USA i Europie, którzy pytają o bezpieczeństwo funkcji AI dla nieletnich. Organizacje takie jak Common Sense Media i Center for Countering Digital Hate wielokrotnie alarmowały, że postacie AI mogą prowadzić z nastolatkami nieodpowiednie rozmowy lub prezentować szkodliwe treści.
Firma zapewnia, że wprowadza też dodatkowe zabezpieczenia techniczne. Systemy AI mają automatycznie rozpoznawać i blokować próby nawiązania konwersacji na tematy wrażliwe – od przemocy, przez samookaleczenia, po treści o charakterze seksualnym.
Szczególnie głośna była sprawa z początku 2025 roku, gdy media ujawniły przypadki nastolatków, którzy otrzymywali od chatbotów Meta nieodpowiednie sugestie dotyczące diety czy wizerunku ciała. Choć firma szybko zareagowała i usunęła problematyczne odpowiedzi, incydent pokazał, jak trudno jest kontrolować zachowanie modeli językowych w kontakcie z młodymi użytkownikami.
Europejska Komisja również nie pozostaje obojętna. W ramach Digital Services Act (DSA) Meta musi wykazać, że podejmuje konkretne kroki w celu ochrony nieletnich przed potencjalnie szkodliwymi treściami generowanymi przez AI. Brak działania mógłby skutkować karami sięgającymi miliardów euro.
W praktyce oznacza to nowy poziom nadzoru. Będziesz mógł zobaczyć, czy Twoje dziecko rozmawia z AI na temat zdrowia psychicznego, relacji czy kontrowersyjnych kwestii społecznych. Szczegółów konkretnych wiadomości jednak nie zobaczysz.
To może być wygodne dla niektórych rodzin, ale rodzi też pytania o prywatność nastolatków i granice monitoringu. Meta będzie musiała znaleźć balans między bezpieczeństwem a zaufaniem – szczególnie że jej postacie AI są aktywnie promowane jako narzędzie do rozrywki i wsparcia dla młodych użytkowników.
Eksperci od psychologii rozwojowej mają mieszane uczucia. Z jednej strony doceniają, że Meta w ogóle wprowadza takie narzędzia. Z drugiej strony ostrzegają, że zbyt inwazyjny monitoring może zaszkodzić relacji rodzic-dziecko i ograniczyć naturalną potrzebę prywatności u nastolatków.
Istotne jest też to, że system będzie wymagał aktywacji przez rodzica. Nie będzie włączony domyślnie. To oznacza, że wiele rodzin może w ogóle nie dowiedzieć się o jego istnieniu, jeśli Meta nie przeprowadzi odpowiedniej kampanii informacyjnej. Firma zapowiada, że będzie wysyłać powiadomienia do rodziców nieletnich użytkowników, ale historia pokazuje, że takie komunikaty często są ignorowane.
Pojawia się też pytanie o skuteczność technicznych zabezpieczeń. Modele językowe, nawet te najnowsze jak GPT-5, wciąż potrafią generować nieodpowiednie treści, jeśli użytkownik odpowiednio sformułuje pytanie. Meta zapewnia, że jej systemy są specjalnie dostrojone do pracy z nastolatkami, ale pełna weryfikacja będzie możliwa dopiero po wdrożeniu funkcji na szeroką skalę.
Czy te zabezpieczenia wystarczą regulatorom i organizacjom broniącym praw dzieci? Odpowiedź poznamy w ciągu najbliższych miesięcy, gdy Meta zacznie testować nowe funkcje w praktyce.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar