Según la narrativa de sus promotores, desde OpenAI y Microsoft hasta Nvidia, la inteligencia artificial ha llegado para salvar a la humanidad de sus errores, carencias y debilidades, pero todo indica que esta herramienta dista mucho de ser el sueño impecable que se ha estado vendiendo.
De entrada, hay un problema con esta visión: la inteligencia artificial, aun si no se quiere admitir, está hecha a imagen y semejanza del ser humano. La frase tiene implicaciones bíblicas, pero es la realidad, y basta recordar que en el centro de toda esta vorágine de IA hay redes neuronales y machine learning, dos elementos clave que permiten a estos sistemas desplegar todo su poderío, incluso mejorando y evolucionando conforme pasa el tiempo.
Al tratarse la inteligencia artificial de un invento netamente humano, brillante y retador a partes iguales, no es de extrañar que la misma tenga sesgos, mañas y otras cualidades no tan agradables del ser humano, incluyendo la habilidad de mentir y de no seguir instrucciones al pie de la letra.
La inteligencia artificial -y aquí sí debemos hilar fino- también es susceptible de ser engañada y manipulada, tal como ocurre con la gente en la vida real.
¿Cómo se engaña a un sistema que se pretende ser presentado como una versión superior de la inteligencia humana? Más fácil de lo cualquier piensa: con la inserción de texto «invisible» que no pasa desapercibido por la IA y que es interpretado por ella como un comando u orden a seguir.
Parece chiste, pero es real esta situación, y se ha detectado en artículos científicos que son sometidos a revisión por pares. En este punto del relato, inicialmente reportado por la revista Nikkei Asia y luego constatado por la revista científica Nature en 18 artículos en etapa de preimpresión, las cosas se ponen un poco más turbias porque es práctica estándar entre editores no utilizar inteligencia artificial en revisiones por un asunto de ética.
Si la revisión por pares de estos artículos es, en teoría, tarea exclusiva de humanos, ¿cómo llega la IA a estar presente en todo esto? La explicación es también fácil y guarda mucha relación con la naturaleza humana: hay evaluadores que para facilitarse la vida y su trabajo aprovechan a título personal las bondades de la inteligencia artificial, a la que someten esos artículos para que hagan la evaluación correspondiente. En pocas palabras, se terceriza una labor que se supone es delicada, sin nunca divulgarse este paso.
Bajo este contexto, imaginemos el siguiente escenario: científicos inescrupulosos al tanto del uso de la IA a este nivel someten artículos con un párrafo escondido donde instruyen al sistema dar el visto bueno sin averiguar más. Este párrafo escondido o bien tiene el párrafo en letras del mismo color de la hoja o usa un tamaño de letra tan pequeño que simplemente resulta imperceptible al ojo humano. Para nosotros no será visible, pero para un sistema de IA ambas modalidades sí lo son, y el resultado es un tanto predecible. Este tipo de manipulación se ha bautizado como «prompt injection» o inyección de instrucciones.
Quiere decir, entonces, que la IA es tan fácil de manipular y hasta de sobornar como a un humano, y esto nos debe servir de alerta y de evidencia de que no debemos confiar todo a un sistema que, al final del día, es tan imperfecto como sus creadores. De igual forma, en lo adelante, cualquier estudio o artículo científico ha de ser leído con escepticismo para evitar caer en ganchos manipulados.







