Apple amplía sus herramientas de seguridad infantil para reportar contenido explícito
La compañía presenta una nueva funcionalidad dentro de su conjunto “Seguridad en las Comunicaciones” que permitirá a los menores denunciar contenido inapropiado a nivel mundial.
Apple está probando una función destinada a que niños y adolescentes puedan reportar el envío de imágenes y videos de desnudos, una herramienta que forma parte de la expansión de los mecanismos que la empresa ha implementado para reforzar la seguridad infantil dentro de su ecosistema.
La propuesta amplía las características del conjunto “Seguridad en las Comunicaciones”, activo de forma predeterminada desde el lanzamiento de iOS 17. Este recurso permite que los iPhone detecten automáticamente contenidos inapropiados que usuarios menores de 13 años puedan recibir o intentar enviar, siendo compatible con aplicaciones como iMessage, AirDrop, FaceTime y Photos. Cuando el sistema detecta materiales sensibles, estos se difuminan y se muestra una advertencia que incluye opciones para que los adolescentes comprendan la situación y tomen las medidas adecuadas.
Con esta nueva función, los usuarios podrán reportar imágenes y videos explícitos al equipo de moderación de contenido de Apple. El dispositivo generará de forma automática un informe que incluye los materiales multimedia, los mensajes relacionados y los datos de contacto de las cuentas involucradas, además de ofrecer un formulario para que los afectados detallen lo sucedido.
Apple evaluará cada reporte, lo que puede derivar en la desactivación de ciertas funcionalidades o la suspensión parcial o total de perfiles. Esta característica de seguridad forma parte de la versión beta de iOS 18.2 y, en un inicio, estará disponible únicamente en Australia. Apple ha anunciado que planea implementar la herramienta a nivel mundial en el futuro.