¿Qué lenguaje utiliza la inteligencia artificial?
Los artistas dieron el primer paso para poder engañar a la IA generativa y cuidar sus obras | Foto: Ilustración creada con la IA de Bing Image Creator

Tecnología

¿Fin de la inteligencia artificial? Encuentran la ‘criptonita’ que hace tambalear la industria y con la que creen poder controlarla

Artistas y desarrolladores lograron este avance con el objetivo de proteger sus obras.

Redacción Semana
25 de octubre de 2023

Desde que apareció la inteligencia artificial, muchos han sido los sectores que se han preocupado por la forma como los sistemas de estas herramientas se han venido entrenando para poder satisfacer los pedidos de quienes las utilizan.

En medio del desarrollo, la IA generativa no ha tenido problema en acceder al material que hay en la web para capacitar su sistema, lo que ha llevado a diferentes artistas, escritores y hasta las propias redes sociales, a levantar la mano para quejarse por la utilización de su material y de sus algoritmos en medio de este proceso de entrenamiento.

Tal ha sido este abuso, que compañías dedicadas a la fotografía como Getty, han entablado demandas contra Stability AI, desarrolladores de Stable Diffusion, al considerar que ese modelo de inteligencia artificial utilizó gran parte de su catálogo para entrenarse, sin reconocerle un solo peso a la famosa agencia de imágenes.

Los modelos de IA generativa son conocidos por su capacidad para "crear" contenido.
Los modelos de IA generativa son conocidos por su capacidad para "crear" contenido. | Foto: Getty Images/iStockphoto

Ante esto, los propios afectados han empezado a utilizar algunas herramientas que les permitan blindar su trabajo y así impedir que la IA generativa la utilice para entrenarse y, de cierta manera, crear copias de su trabajo o convertirse en su competencia.

‘Envenenar’ a la inteligencia artificial, la solución

La inteligencia artificial generativa funciona a través de comandos o ‘prompts’ que entregan los usuarios, lo cual se trata en una serie de indicaciones detalladas y órdenes precisas para lograr el resultado más preciso posible.

Por esta razón, han recurrido a la misma práctica para ‘envenenar’ o engañar a estas herramientas y con un grupo de desarrolladores han creado Ningshade y Glaze, dos aplicaciones que protegen sus trabajos a través de un truco que la IA no es capas de descifrar y que la lleva al error.

Inteligencia artificial
La inteligencia artificial es una herramienta que ha traído varios desafías a industrias como la del entretenimiento. | Foto: Getty Images

El cerebro detrás de esta solución es Ben Zhao, profesor de la Universidad de Chicago y quien encontró la forma de burlar y engañar la inteligencia artificial. Según explican, estas herramientas cambian, de forma imperceptible para el ojo humano, el orden de los píxeles, lo cual no solo evita el plagio de las obras, sino que hace caer en errores a los sistemas de IA una vez atan utilizado el material adulterado para su entrenamiento.

En pocas palabras, los dibujos, imágenes u obras creadas por artistas de carne y hueso que hayan pasado por Ningshade y Glaze entregarán una información errónea a la IA que las utilice, haciendo que, en el futuro, si alguien les pide crear la ilustración de un carro, esta diseñe un perro.

Por ahora, habrá que esperar para saber si esta solución surte el efecto deseado, pues para nadie es un secreto que la inteligencia artificial crece y se entrena día a día con el fin de superar estos obstáculos y de ser realmente independiente; eso sí, la duda sobre la forma cómo se entrenan, quién lo ha hecho y en qué se han basado, sigue sobre la mesa, lo que hace más difícil intentar contener el fenómeno del plagio que pone sombras sobre esta nueva tecnología.

Mientras esto sucede, los diferentes modelos de inteligencia artificial seguirán utilizando obras ya existentes para intentar resolver las dudas de los millones de usuarios a nivel mundial; así mismo, la posibilidad de acceder al material alojado en la web es otra de las amenazas que afronta la humanidad, pues se corre el riesgo de que esta tecnología acuda a fuentes equivocadas o maliciosas que busquen entregar información falsa o promover el uso de material de odio que alimente la polarización política y las próximas guerras.