Meta wprowadza kontrolę rodzicielską nad AI dla nastolatków
Źródło: Link
Źródło: Link
Meta pokazała właśnie, jak będzie wyglądać kontrola rodzicielska nad funkcjami AI dla nastolatków. Korzystasz z Instagrama czy Facebooka i masz dzieci? Te zmiany dotyczą Cię bezpośrednio.
Firma Marka Zuckerberga zapowiedziała nowe funkcje, które trafią na jej platformy w 2026 roku. To odpowiedź na rosnące obawy dotyczące wpływu sztucznej inteligencji na młodych użytkowników. Temat, który ostatnio głośno wybrzmiewa wśród regulatorów i organizacji chroniących prawa dzieci.
Najważniejsze narzędzie? Możliwość blokowania konkretnych postaci AI, z którymi nastolatki mogą rozmawiać na platformach Meta. Rodzice otrzymają też dostęp do informacji o tematach, które pojawiają się w konwersacjach ich dzieci z chatbotami.
Meta zacznie wprowadzać te funkcje stopniowo, od najbliższych miesięcy. Pełna implementacja ma nastąpić w przyszłym roku. System będzie działać podobnie do istniejących już narzędzi kontroli rodzicielskiej w Family Center (centralnego miejsca do zarządzania aktywnością dzieci na platformach Meta).
Te zmiany nie przychodzą w próżni. Meta od miesięcy znajduje się pod lupą regulatorów w USA i Europie, którzy pytają o bezpieczeństwo funkcji AI dla nieletnich. Organizacje takie jak Common Sense Media i Center for Countering Digital Hate wielokrotnie alarmowały, że postacie AI mogą prowadzić z nastolatkami nieodpowiednie rozmowy lub prezentować szkodliwe treści.
Firma zapewnia, że wprowadza też dodatkowe zabezpieczenia techniczne. Systemy AI mają automatycznie rozpoznawać i blokować próby nawiązania konwersacji na tematy wrażliwe – od przemocy, przez samookaleczenia, po treści o charakterze seksualnym.
W praktyce oznacza to nowy poziom nadzoru. Będziesz mógł zobaczyć, czy Twoje dziecko rozmawia z AI na temat zdrowia psychicznego, relacji czy kontrowersyjnych kwestii społecznych. Szczegółów konkretnych wiadomości jednak nie zobaczysz.
To może być wygodne dla niektórych rodzin, ale rodzi też pytania o prywatność nastolatków i granice monitoringu. Meta będzie musiała znaleźć balans między bezpieczeństwem a zaufaniem – szczególnie że jej postacie AI są aktywnie promowane jako narzędzie do rozrywki i wsparcia dla młodych użytkowników.
Czy te zabezpieczenia wystarczą regulatorom i organizacjom broniącym praw dzieci? Odpowiedź poznamy w ciągu najbliższych miesięcy, gdy Meta zacznie testować nowe funkcje w praktyce.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar