Las herramientas para impedir que la inteligencia artificial copie el estilo de los artistas no funcionan, avisa un estudio
La inteligencia artificial generativa ha revolucionado la creación de imágenes, pero también ha puesto en riesgo la originalidad de los ilustradores y diseñadores. La llegada de estas herramientas permite que cualquier persona con muy pocos conocimientos técnicos pueda replicar fielmente el estilo que hasta ese momento había hecho únicas sus creaciones. Ese estilo por el que empresas o instituciones les encargaban nuevas obras.
Algunos desarrolladores de esos modelos de IA e investigadores intentaron poner en marcha herramientas de protección para los artistas. La mayoría de ellas funcionan ofuscando la imagen que ve la inteligencia artificial, distorsionándola o añadiéndole ruido informático. El objetivo es que su aspecto siga siendo el mismo al ojo humano, pero que los modelos generativos engendren imágenes informes si se les ordena replicarlas.
El problema es que estas herramientas no funcionan, a pesar de que se han hecho extremadamente populares y suman millones de descargas. “No protegen a los artistas de la imitación de su estilo”, concluye el primer estudio sobre ellas realizado por investigadores de la Universidad de ETH Zúrich y de Google DeepMind, la división de investigación en IA de la multinacional.
“Todas las protecciones existentes pueden eludirse fácilmente, dejando a los artistas vulnerables al mimetismo de estilo”, advierten.
Esto implica, a juicio de los autores del estudio, que el uso de estas herramientas puede llegar a ser contraproducente. Ofrecen “una falsa sensación de seguridad”, alegan: “No tener herramientas de protección es preferible a tener unas inseguras. Las protecciones inseguras pueden engañar a los artistas haciéndoles creer que es seguro publicar su trabajo, lo que permite la falsificación y los pone en una situación peor que si hubieran sido más cautelosos en ausencia de cualquier protección”, argumentan.
Para lleva a cabo el estudio, los autores aplicaron técnicas simples como la ampliación y reducción de las imágenes, que podrían eliminar o reducir ese ruido introducido con objetivo de dificultar la visión de las inteligencias artificiales. Después entrevistaron a voluntarios para evaluar si las imágenes con protecciones seguían siendo reconocibles o si la IA generativa todavía podía imitar su estilo. Finalmente compararon los resultados antes y después de aplicar las técnicas de resistencia y el estudio con usuarios, concluyendo que estas herramientas no representan una protección confiable.
En este momento, si alguien piensa que la IA realmente puede afectar a su modelo de negocio, la opción más segura es no publicar su arte online
Además, destacan que las técnicas que han usado para vulnerarlas ya estaban disponibles cuando esas herramientas de protección salieron al mercado, lo que implica que nunca fueron realmente seguras. “En este momento, si alguien piensa que la IA realmente puede afectar a su modelo de negocio, la opción más segura es no publicar su arte online porque como demuestra nuestro estudio, incluso las mejores protecciones que existen no pueden garantizar que su arte no va a ser copiado”, explica en conversación con elDiario.es Javier Rando, coautor del estudio.
Diferencias entre artistas
Uno de los aspectos llamativos que han encontrado los investigadores durante su análisis es que las herramientas de protección sí funcionaban bien para impedir que la IA copiara el estilo de un puñado de artistas.
En este caso Rando no puede detallar exactamente por qué. “No lo sabemos bien, y probablemente haría falta un estudio mucho más grande y expertos para juzgarlo. Estudios previos, como el de Glaze [una de las herramientas de protección analizadas], comentaban que los artistas 'contemporáneos' que no habían estado en los datos de entrenamiento, estaban mejor protegidos. En nuestro estudio no hemos encontrado diferencias notables entre artistas históricos y contemporáneos”, resume.
Desde Glaze (desarrollada por la Universidad de Chicago) han agradecido a los autores haber puesto a prueba su herramienta y comunicarles los resultados. “En nuestras pruebas, verificamos algunas de las afirmaciones de los autores: su método tuvo un impacto significativo en la eliminación de la protección Glaze V1, y tuvo cierto impacto en la protección Glaze V2.0. Sin embargo, al igual que muchas técnicas de eliminación anteriores, este ataque suele pagar el precio de una calidad de imagen significativamente degradada. La degradación es especialmente problemática en el caso de los rostros, las ilustraciones con textura y las ilustraciones de alto contraste”, destacan.
En este sentido, los autores del estudio afirman que las diferencias de efectividad entre diferentes trabajos artísticos que proporcionan las herramientas colaboran a esa “falsa sensación de seguridad a todos los artistas”. “Las protecciones deberían valer para todos los artistas por igual, mientras que un método de imitación podría dirigirse con éxito sólo a determinados artistas”.
Sin soluciones en el horizonte
Los autores explican que con las soluciones tecnológicas actuales no hay demasiadas opciones para los artistas que quieran impedir a toda costa que su trabajo sea replicado con inteligencia artificial. Las grandes compañías que la desarrollan, como OpenAI, han habilitado sistemas para que los autores puedan indicarle a sus sistemas que no deben absorber un determinado contenido. Sin embargo, eso no evita que un ataque que pretenda copiar una obra lanzado por un tercero.
“Las limitaciones de las protecciones contra la imitación de estilos son inherentes. Los artistas están necesariamente en desventaja, ya que tienen que actuar primero (es decir, una vez que alguien descarga el arte protegido, la protección ya no puede modificarse)”, recuerda el estudio. Destacan además que este tipo de protección (añadiendo ruido a la imagen) no puede actualizarse una vez que la obra haya sido publicada en Internet, lo que las expone a la copia con herramientas más desarrolladas.
4