La opción estará activada por defecto para los menores. De esta manera espera poder protegerlos de criminales y abusadores.
Instagram ha decidido poner a prueba un nuevo sistema que distorsiona de forma automática los mensajes directos que contengan imágenes con desnudos. El objetivo es proteger a los jóvenes del accionar de todo tipo de estafadores y abusadores. La opción estará activada por defecto para todos los usuarios menores de 18 años. La compañía también avisará a los mayores de su existencia y recomendará que la activen.
Funcionamiento
Meta, la empresa dueña de la red social, ha explicado que el sistema utilizará tecnología de aprendizaje automatizado para detectar cuando una imagen que pasa por el servicio contiene desnudez.
Un detalle importante es que las imágenes son analizadas en los dispositivos. Esto permite que el sistema de protección funcione aún en los casos en los que se emplea un encriptado de punto a punto. Meta no tendrá acceso a las imágenes, salvo que haya un reporte sobre ellas. Cabe señalar que los mensaje directos de Instagram no están encriptados, pero la empresa ha señalado anteriormente que planea aplicar esta función en ellos.
Mayor control
La compañía ha señalado que también está desarrollando tecnología para identificar las cuentas que podrían estar involucradas en esquemas de extorsión con imágenes de naturaleza sexual. Una opción considerada es la implementación de mensajes emergentes para advertir a los usuarios que han interactuado con esas cuentas.
Nota: la imagen de este artículo es puramente ilustrativa. No representa el resultado del sistema de Instagram o comenta sobre su posible aplicación a obras de arte.
¡Comparte esta noticia! FUENTE: RedUsers