Tecnología

Sistema iOS comenzará a difuminar imágenes que muestren desnudos

Dicho material se tornará borroso gracias a la última versión del sistema de Apple

Sistema iOS comenzará a difuminar imágenes que muestren desnudos

Sistema iOS comenzará a difuminar imágenes que muestren desnudos

EL UNIVERSAL.

La última versión beta de iOS 15.2 agrega una función de seguridad de comunicación de Apple a la aplicación Mensajes, de acuerdo con el portal especializado en la firma de Cupertino, MacRumors.

La función de inclusión voluntaria está diseñada para proteger a los niños de imágenes inapropiadas al escanear las fotos entrantes y salientes en busca de material "sexualmente explícito".

Imagen borrosa

Cualquier imagen que cumpla con esta descripción se verá borrosa, y se le advertirá al niño sobre su contenido y se le dirá que está bien no verlo. La función, que se relaciona con el sistema Family Sharing existente de Apple, también está diseñada para ofrecer recursos a los niños afectados para que obtengan ayuda.

La versión de la función que se lanzó en la última versión beta de iOS 15.2 tiene una diferencia crucial con respecto a lo que Apple anunció originalmente en agosto: no enviará notificaciones a los padres si un niño decide ver una imagen sexualmente explícita.

MacRumors también señaló que en su forma original, la función podría haber introducido problemas de seguridad cuando un padre es violento o abusivo.

Por su parte, el sitio informativo CNET en su versión en inglés informó que, en cambio, los niños tendrán la opción de alertar a alguien en quien confían sobre una foto marcada, y que esta opción es independiente de la opción de quitar el desenfoque y ver la imagen. Las comprobaciones se llevan a cabo en el dispositivo y no afectan el cifrado de un extremo a otro.

Seguridad en comunicaciones

La función Seguridad en las comunicaciones se anunció originalmente en agosto como parte de un trío de funciones diseñadas para proteger a los niños del abuso sexual. Sin embargo, la compañía dijo que estaba retrasando la introducción de las funciones el mes siguiente en respuesta a las objeciones planteadas por los defensores de la privacidad.

Communication Safety es diferente de la función de detección CSAM (detección de imágenes de abuso sexual infantil) que escanea las fotos de iCloud de un usuario e informa el contenido ofensivo a los moderadores de Apple, y que generó la mayor parte de las protestas de los defensores de la privacidad.

También hay una actualización en la búsqueda de Siri que está diseñada para ofrecer recursos si un usuario busca temas relacionados con el abuso sexual infantil. Actualmente no está claro cuándo se planea el lanzamiento de estas dos funciones, y no ha habido informes de que aparezcan en el software beta público de Apple.

Vale la pena señalar que las funciones agregadas a la última versión beta de iOS 15.2 aún podrían cambiar drásticamente antes de su lanzamiento oficial, y es posible que se eliminen de la actualización por completo.

Otras características nuevas que han llegado a la última versión beta incluyen una función de escaneo manual de AirTag, así como la opción de transmitir sus datos de iCloud a un ser querido en el caso de su muerte.

Escrito en: tecnologia iOS Apple desnudos fotografias censura función, versión, beta, última

Noticias relacionadas

EL SIGLO RECIENTES

+ Más leídas de Tecnología

TE PUEDE INTERESAR

LECTURAS ANTERIORES

Fotografías más vistas

Sistema iOS comenzará a difuminar imágenes que muestren desnudos