Family Center: la nueva función de control parental de Snapchat

Snapchat lanzó controles parentales en su aplicación el año pasado a través de la nueva función denominada Family Center. Ahora, la compañía anunció a través de una publicación en su Centro de privacidad y seguridad en línea que agregará capacidades de filtrado de contenido que permitirán a los padres restringir la exposición de los adolescentes a contenido identificado como sensible o sugerente.
Para habilitar la función, los padres pueden activar el filtro «Restringir contenido confidencial» en el Centro familiar de Snapchat. Una vez habilitado, los adolescentes ya no verán el contenido bloqueado en Stories y Spotlight, la sección de videos cortos de la plataforma.

Junto con este cambio, Snapchat también publica sus pautas de contenido por primera vez para brindarles a los creadores de Stories y Spotlight más información sobre qué tipo de publicaciones se pueden recomendar en su plataforma y qué contenido ahora se considerará «sensible» según las pautas de su comunidad. La plataforma dijo que había compartido estas pautas con un conjunto de creadores bajo el programa Snap Stars y con sus socios de medios, pero ahora la compañía las pone a disposición de todos a través de una página en su sitio web.

La compañía ya prohíbe contenido, de odio, terrorismo, extremismo violento, actividad ilegal, información dañina falsa o engañosa, acoso e intimidación, amenazas de violencia y más en su plataforma. Pero ahora, las pautas especifican qué contenido en varias categorías se considerará «sensible». Este es contenido que puede ser elegible para recomendación pero puede ser bloqueado para usuarios adolescentes bajo estos nuevos controles, o para otros en la aplicación según su edad, ubicación o preferencias personales.

Por ejemplo, en la categoría de contenido sexual, Snap explica que el contenido se considerará «sensible» si incluye «toda la desnudez, así como todas las representaciones de actividad sexual, incluso si está vestido, e incluso si las imágenes no son reales» (tales como en el caso de las imágenes de IA, así como «lenguaje explícito» que describe actos sexuales y otras cosas relacionadas con el sexo, como trabajo sexual, tabúes, genitales, juguetes sexuales, «imágenes abiertamente sugerentes», «contenido sexual insensible o degradante» y “medios manipulados”).

También aborda lo que se considerará sensible en otras categorías, incluido el acoso, el contenido perturbador o violento, la información falsa o engañosa, las actividades ilegales o reguladas, el contenido de odio, el terrorismo y el extremismo violento, y el contenido comercial (solicitud abierta de compra de productos no pertenecientes a terceros). Esto incluye una variedad de contenido, como representaciones de drogas, autolesiones, modificaciones corporales, gore, violencia en las noticias, imágenes gráficas de enfermedades físicas humanas, sufrimiento animal, cobertura sensacionalista de distribución incidentes, como crímenes violentos o sexuales, comportamiento peligroso y mucho, mucho más.

Los cambios se producen luego de una audiencia en el Congreso de 2021 en la que se interrogó a Snap sobre mostrar contenido relacionado con adultos en el feed Discover de la aplicación, como invitaciones a videojuegos sexualizados y artículos sobre ir a bares o pornografía. Como señalaron acertadamente los senadores, la aplicación de Snap figuraba como 12+ en la App Store, pero el contenido que estaba compartiendo estaba claramente destinado a una audiencia más adulta. Incluso los videojuegos que publicitaba, en algunos casos, se calificaron como dirigidos a usuarios mayores.

Vía – TechCrunch

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.