¿Paranoia, o será que hay algo que no nos están diciendo? Nueve años atrás, antes de que OpenAI y la inteligencia artificial estuvieran en boca de todos, Sam Altman revelaba a The New Yorker sus preparativos en caso de una eventual catástrofe, incluyendo la posibilidad de que la inteligencia artificial se salga de control
En octubre de 2023, cuando la inteligencia artificial ya era una realidad más que evidente, Altman reveló algo quizás más perturbador: mantiene sus preparativos para responder a cualquier eventualidad, pero asegura que ningún búnker nos salvará de un apocalipsis impulsado por esta tecnología.
Cuando el cofundador y CEO de la compañía sinónimo de la inteligencia artificial se expresa en esos términos, vale preguntarse a qué es que se está jugando o apostando.
Lejos de ser una historia perfecta o inocente, la de OpenAI es una que ofrece mucha oportunidad de escrutinio, y un episodio particularmente turbio sucedió precisamente finalizando 2023, cuando hubo un fallido intento de deponer a Altman.
Por espacio de tres días Altman, efectivamente, dejó de ser el CEO de OpenAI, una movida sorpresiva que causó un torrente de especulaciones y chismes. El artífice de lo que pudiera describirse como un efímero golpe de estado fue Ilya Sutskever, cofundador de OpenAI y cabeza de investigación en la compañía.
De ser un promotor incansable de la llamada inteligencia artificial general (AGI) o superinteligencia, este personaje pasó a dar la voz de alarma y a orquestar uno de los incidentes más infames en el ámbito tecnológico.
¿Qué pasó? Aparentemente, Sutskever empezó a preocuparse por el rápido avance de una tecnología que, si bien tiene mucho potencial, encierra por igual muchos peligros y consecuencias sin explorar.
Fue así como Sutskever, según reportes a raíz de un libro que se estará publicando al respecto, mencionó la necesidad de hacer un búnker para resguardarnos cuando la inteligencia artificial sobrepase efectivamente la inteligencia humana.
Según reportes de quienes presenciaron a Sutskever en esas acciones, este estaba (o está) convencido de que la llegada de la anhelada AGI provocará un rapto de proporciones bíblicas, y de ahí la necesidad de hacer un búnker antes de que llegue este momento.
¿Serán caprichos de una mente tan acelerada como pesimista, o habrá algo más? Por algo Sutskever intentó parar a Altman en esa ocasión y también por algo fundó una compañía de inteligencia artificial que promete ser la contraparte segura en un entorno que corre hacia la AGI.
En lo que se resuelve la cuestión, una cosa es segura: necesitamos educarnos más respecto de la inteligencia artificial y, sobre todo, aprender a usarla como complemento y no como sustituto.