Mucho se pregonan las habilidades y capacidades de la inteligencia artificial, no solo en su versión generativa, sino en aspectos más sutiles, como la observación de comportamientos y la detección de patrones. Esa narrativa ha sido constante en la evolución reciente de estas tecnologías, y en gran medida es correcta. El problema es que, en la práctica, esa capacidad no siempre se traduce en acción.
Resulta que ChatGPT y herramientas similares ciertamente pueden identificar perfiles problemáticos, pero esto de poco sirve si no se toman correctivos más allá del entorno de la propia plataforma. Detectar no es lo mismo que prevenir, y ahí es donde empieza la zona gris.
El comentario viene a propósito de una matanza colectiva ocurrida en febrero de este año en Tumbler Ridge, una localidad rural donde hubo ocho víctimas, incluyendo cinco estudiantes de secundaria con edades entre 12 y 13 años. La responsable fue Jesse van Rootselar, quien eventualmente se suicidó. Más allá del hecho en sí, que ya es suficientemente grave, lo que ha encendido la discusión es lo que ocurrió antes.
Hoy, la comunidad ha emprendido acciones legales contra OpenAI. La razón es particularmente delicada: la compañía habría detectado comportamiento anómalo en esta persona desde junio del año pasado, procediendo a suspender su cuenta, pero sin escalar la situación ni emitir alerta a las autoridades. La decisión, que en su momento pudo parecer prudente desde el punto de vista legal y operativo, hoy pesa más de lo esperado, al punto de que Sam Altman tuvo que pronunciarse con disculpas públicas.
Este es un caso donde “se cantan y se lloran”. Por un lado, la capacidad de estas tecnologías para observar y perfilar conductas genera rechazo por su carácter invasivo, especialmente cuando se cruza con la posibilidad de intervención de autoridades. Pero, al mismo tiempo, son precisamente esas capacidades las que podrían servir para prevenir escenarios con desenlaces fatales.
Ahí está la contradicción. Si la IA se limita a actuar dentro de su entorno, su utilidad preventiva queda en entredicho. Si da un paso más allá, entra en conflicto directo con la privacidad y las libertades individuales. No es un equilibrio sencillo, y tampoco hay un marco claro que lo regule de forma consistente.
Es un hecho que la IA puede detectar patrones. Es, de hecho, su base de funcionamiento. La gran pregunta en el caso actual es, ¿cómo se llega a un punto medio que no comprometa las libertades individuales? Esta respuesta ni vendrá fácil ni vendrá por ahora, porque es profunda y requiere de amplio consenso.






