Deepfakes y Cyberbullying (Ciberacoso)

Hace unos días, salió a la luz una situación única de acoso cibernético que involucraba a una mujer de 50 años que atacó a adolescentes. El giro más interesante no fue la gran diferencia de edad entre el agresor y los objetivos, sino el hecho de que se usó software para alterar las imágenes originales encontradas en línea para que pareciera que las otras chicas, que pertenecían a un club de porristas al que su hija asistía anteriormente, estaban desnudos, bebían alcohol por menores de edad. Estos se difundieron a través de mensajes de texto de acoso desde números de teléfono anónimos irreconocibles para las niñas y también incluyeron una sugerencia de que una de las niñas se suicidara.
“un arma perfecta para los proveedores de noticias falsas que quieren influir en todo, desde los precios de las acciones hasta las elecciones”
El término “deepfake” (“deep learning + fake”) en sí mismo parecía haberse originado en Reddit en 2017, cuando varios usuarios comenzaron a compartir sus creaciones entre sí. En términos generales, implica el uso de inteligencia artificial (IA) (basada en técnicas de aprendizaje automático) para crear contenido de aspecto increíblemente realista destinado a parecer legítimo y real. A menudo, los modelos algorítmicos se crean para analizar cantidades significativas de contenido (por ejemplo, horas de video de una persona, miles de imágenes de una persona, con atención específica a los rasgos faciales clave y el lenguaje corporal / posición), y luego tomar lo aprendido y aplíquelo a imágenes que uno podría querer manipular (por ejemplo, superponiendo esas características originales en el contenido / salida de destino). También se emplean técnicas adicionales como agregar artefactos (como fallas / fluctuaciones que parecen normales o incidentales) o usar enmascaramiento / edición para mejorar el realismo.
Los deepfakes tienen el potencial de comprometer el bienestar de una nación en lo que respecta a la democracia y la seguridad nacional, y también tienen el potencial de comprometer el bienestar de un objetivo cuando se considera el daño emocional, psicológico y de reputación que pueden infligir. Sin embargo, lo que pasa con los deepfakes es que siempre hay inconsistencias auditivas, visuales y temporales que detectar.