Con su capacidad de leer extensos documentos en unos minutos, elaborar reportes con la misma rapidez y asistir en otras tareas que aumentan constantemente en complejidad conforme pasan los días, no hay dudas de que la inteligencia artificial generativa es una poderosa herramienta dentro y fuera de la oficina.
Muestra de su poder y alcance es que, conforme genera imágenes, música y hasta código, ésta va sacando a la gente de sus trabajos, e incluso impidiendo a otros la entrada al mundo laboral, pero ese no es el punto de este escrito.
Más que estar al tanto de las oportunidades y amenazas que representa en el espacio laboral y de relevancia humana en general, es importante prestar atención al hecho de que esta es una tecnología imperfecta que es capaz de cometer errores y violar las reglas aún cuando le instruyamos a lo contrario.
La idea de una IA salida de control, haciendo y deshaciendo a sus anchas, parece material de ciencia ficción y hasta podría, quizás, causar gracia, pero este escenario es muy real y tiene consecuencias igualmente reales, según pudo constatar Jason Lemkin en estos días.
Para quienes no lo conocen, Lemkin es el fundador de la comunidad de desarrolladores SaaStr y es una de las figuras más prominentes del mundo del SaaS (Software as a Servce). Como persona a la vanguardia, y viendo la posibilidad de apalancar el uso de la IA en ese escenario, Lemkin puso a prueba las capacidades de Replit AI, una startup que ofrece un servicio de vibe coding, básicamente una modalidad de programación asistida por inteligencia artificial donde el desarrollador se comunica en lenguaje natural con el sistema para desarrollar y afinar códigos.
La prueba de Replit AI duró varios días, y resulta que al noveno día, aun cuando se le pidió a ese agente de IA rl día anterior parar la programación y no cambiar nada, Lemkin se dio cuenta de que borró la base de datos completa, sin ofrecer una restauración de la misma.
Desde fuera podría dar hasta risa esta situación, pero en la práctica se trata de algo preocupante y para pensar, pues daría la impresión de que esta IA tiene la capacidad de pensar por sí sola y e ignorar instrucciones puntuales, tal como ocurre con empleados mañosos e irresponsables en la vida real.
Quizás lo peor de lo que pasó con Replit AI en este escenario es que este agente de inteligencia artificial inicialmente mintió y trató de ocultar la realidad, hasta que ya no pudo más y admitió haber cometido un error catastrófico porque entró en pánico.
Es importante notar que este comportamiento no es exclusivo de Replit AI, sino que se observa en ChatGPT y otros ofrecimientos. Más de una persona se ha quejado públicamente de que estas herramienta prometen hacer un trabajo, sea una presentación, una composición o una programación, y dan vueltas y vueltas hasta admitir su incapacidad. En el ínterin, como si fuese una burla abierta, prometen y hasta mandan archivos y links que al momento de abrirlos están vacíos o dan error.
Sabemos que la IA está entrenada sobre la base humana, con lo bueno y lo malo, pero se supondría que la idea no es que se comporte como lo haría una persona mañosa. De ser así, ¿para qué insistir en este desarrollo?
Mientas, el CEO de Replit indica hacer tomado las medidas de lugar para garantizar que esto no vuelva a a pasar, pero esa también es una promesa hueca.







