Si bien Apple facilita el intercambio de contenido con iOS 17, no se olvida de tomar medidas para evitar el abuso de esta facilidad. La compañía declaró que la nueva versión de iOS tendrá una función de alerta de contenido confidencial, para que pueda evitar que los adultos envíen fotos y videos de desnudos no deseados a sus teléfonos. Los usuarios que reciban una imagen potencialmente alarmante podrán rechazarla, aceptarla o buscar consejos sobre cómo ayudar.
Communication Security, por otro lado, brinda a los niños una protección que va más allá de la aplicación Mensajes. Con la ayuda del aprendizaje automático, esta función desenfocará las fotos explícitas enviadas y recibidas a través de AirDrop, mensajes de FaceTime, carteles de personas. La tecnología podrá reconocer videos y fotos. Si se recibe dicho contenido, los niños podrán enviar mensajes a los adultos para pedir ayuda.
Ambas funciones de Apple procesan contenido multimedia en el dispositivo. La empresa subraya que no tiene acceso a los materiales. Para la seguridad de la comunicación, Compartir en familia debe estar activo y algunas cuentas deben estar marcadas como pertenecientes a niños. En 2021, Apple anunció planes para bloquear fotos de desnudos no deseados, así como un plan para marcar fotos cargadas en iCloud que contengan material conocido de abuso sexual infantil (CSAM) en 2021. La compañía archivó ese plan a fines de 2022 por la preocupación de que los gobiernos pudieran presionarla para escanear otros tipos de imágenes, y mucho menos los riesgos de falsos positivos. Communication Security y Sensitive Content Alert solo tienen como objetivo prevenir el trauma.
¿Cuándo se lanzará iOS 17?
Anunciado en el discurso de apertura de la WWDC 2023 de Apple, iOS 17 se reunirá con los usuarios el próximo otoño. La versión beta para desarrolladores ya está disponible para su distribución.
