fbpx

IA: los DeepFakes cada vez más difíciles de identificar

Los DeepFakes o rostros falsos, creados desde cero por la inteligencia artificial, tienen cada vez menos defectos, lo que a veces los hace indetectables para el ojo humano.

Los rostros falsos generados por computadora son ahora más imperceptibles para un ser humano. En un estudio realizado por la Universidad de Texas se pidió a cientos de personas que distinguieran a las personas reales de las caras generadas por un algoritmo.

Seleccionaron 400 rostros sintetizados con el programa StyleGAN2, garantizando la diversidad de género (200 mujeres y 200 hombres), la edad estimada (garantizando un rango de edad que va desde niños hasta adultos mayores) y la raza (100 afroamericanos o negros, 100 caucásicos, 100 de Asia oriental y 100 de Asia meridional).

  1. A un primer grupo de 315 sujetos se les preguntó cuál de los dos retratos colocados uno al lado del otro era falso.
  2. La misma pregunta se formuló a un segundo grupo de 219 personas a las que se entrenó brevemente para identificar rostros falsos, en particular los defectos que dejan las inteligencias artificiales en determinados lugares.
  3. Un tercer y último grupo de 233 participantes calificó la fiabilidad de las 128 imágenes presentadas a los dos primeros grupos en una escala de 1 a 7.

Las personas del primer grupo obtuvieron menos de una respuesta correcta (48.2%). En el segundo grupo, que estaba mejor preparado, el porcentaje aumentó ligeramente hasta el 59% de respuestas correctas. Por último, las valoraciones del último grupo otorgaron una calificación media de fiabilidad más alta a las caras falsas (4,82) que a las personas reales (4,48).

deepfakes

Durante las últimas elecciones presidenciales de Estados Unidos, un joven estadounidense de 17 años creó un perfil falso de un falso candidato en Twitter. El misterioso Andrew Walz tenía una foto de perfil tomada del sitio web thispersondoesnotexist.com, que, como su nombre indica, presenta retratos generados por la inteligencia artificial. Twitter acabó certificando su perfil antes de ser alertado por la cobertura mediática del engaño.

En sus conclusiones, los dos coautores animan “a quienes desarrollan estas tecnologías a preguntarse si los riesgos asociados superan los beneficios. Si es así, entonces desaconsejamos el desarrollo de una tecnología simplemente porque funciona”.

El estudio:
https://www.pnas.org/doi/10.1073/pnas.2120481119

Jean-Luc Lenoble
https://www.linkedin.com/in/jeanluclenoble