Meta implementa nuevas restricciones para enviar mensajes directos a adolescentes

Meta anunció la implementación de nuevas restricciones de DM tanto en Facebook como en Instagram, lo que impide que cualquiera envíe mensajes a los adolescentes.

Hasta ahora, Instagram restringe a los adultos mayores de 18 años enviar mensajes a adolescentes que no los siguen. Los nuevos límites se aplicarán a todos los usuarios menores de 16 años (y en algunas zonas geográficas a menores de 18 años) de forma predeterminada. Meta dijo que alertará a los usuarios existentes con una notificación.

En Messenger, los usuarios sólo recibirán mensajes de amigos de Facebook o de personas que tengan en sus contactos.

Es más, Meta también está fortaleciendo sus controles parentales al permitir que los tutores permitan o rechacen cambios en la configuración de privacidad predeterminada realizada por los adolescentes. Anteriormente, cuando los adolescentes cambiaban esta configuración, los tutores recibían una notificación, pero no podían tomar ninguna medida al respecto.

La compañía dio un ejemplo de que si un usuario adolescente intenta hacer que su cuenta sea pública y privada, cambia el control de contenido confidencial de «Menos» a «Estándar» o intenta cambiar los controles sobre quién puede enviarles mensajes directos, los tutores pueden bloquearlos.

Meta implementó por primera vez herramientas de supervisión parental para Instagram en 2022, lo que dio a los tutores una idea del uso que hacen sus hijos adolescentes.

El gigante de las redes sociales dijo que también planea lanzar una función que evitará que los adolescentes vean imágenes no deseadas e inapropiadas en sus mensajes directos enviados por personas conectadas con ellos. La compañía agregó que esta función también funcionará en chats cifrados de extremo a extremo y «desalentará» a los adolescentes a enviar este tipo de imágenes.

Meta no especificó qué trabajo está haciendo para garantizar la privacidad de los adolescentes mientras ejecuta estas funciones. Tampoco proporcionó detalles sobre lo que considera “inapropiado”.

A principios de este mes, Meta lanzó nuevas herramientas para impedir que los adolescentes vean autolesiones o trastornos alimentarios en Facebook e Instagram. El mes pasado, la compañía recibió una solicitud formal de información de los reguladores de la UE, quienes pidieron que proporcionara más detalles sobre sus esfuerzos para prevenir el intercambio de material autogenerado de abuso sexual infantil (SG-CSAM).

Al mismo tiempo, la compañía enfrenta una demanda civil en el tribunal estatal de Nuevo México, alegando que la red social de Meta promueve contenido sexual entre usuarios adolescentes y promueve cuentas de menores entre depredadores. En octubre, más de 40 estados de Estados Unidos presentaron una demanda ante un tribunal federal de California acusando a la empresa de diseñar productos de una manera que dañaba la salud mental de los niños.

La compañía testificará ante el Senado sobre cuestiones relacionadas con la seguridad infantil el 31 de enero de este año junto con otras redes sociales como TikTok, Snap, Discord y X (anteriormente Twitter).

Vía – Techcrunch

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.