Kate Isaacs tuvo un cambio radical en su vida cuando vio en Twitter que alguien había publicado un video pornográfico de ella, video que nunca había grabado.
"Pero eso cuando fue, con quién estoy teniendo sexo, no recuerdo, no creo que haya consentido esto", pensó Kate cuando lo vio.
Mirando el video publicado con más detenimiento llegó a una conclusión: era su cara, pero no su cuerpo. Usando la tecnología "deepfake" alguien convirtió a Isaacs en víctima de falsa pornografía. Para el falso video utilizaron imágenes de una entrevista televisiva de Kate y la habían etiquetado al compartirlo en Twitter.
"Se me cayó el alma a los pies. No podía pensar con claridad", dijo. "Recuerdo haber pensado que el video llegaría a todas partes. Fue horroroso".
La mujer cree que fue atacada por el trabajo que realizó y con el que consiguió eliminar 10 millones de videos de pornografía infantil y no consentidos en una página para adultos.
"Me sentía tan increíblemente vulnerable y no quería salir. Fue una de las cosas más aterradoras por las que he pasado", declaró Kate, quien, además, recibió amenazas y le publicaron las direcciones de su trabajo y de su casa.
La tecnología "deepfake" es una especie de inteligencia artificial que se puede usar en los vídeos mostrando imágenes falsas. Generalmente se puede usar para cambiar el rostro de una persona. Es decir, se puede poner la cara de una persona y el cuerpo de otra.
comentar