Podrías tener un modelo de inteligencia artificial instalado en tu equipo sin siquiera saberlo. Y peor aún: ocupando espacio, funcionando en segundo plano y reinstalándose incluso si decides eliminarlo.
En el mundo digital actual, el almacenamiento se ha convertido en un recurso cada vez más valioso. Fotos, videos, documentos, videojuegos, aplicaciones, actualizaciones del sistema operativo… todo compite constantemente por espacio en computadoras, tablets y smartphones. Y aunque existen muchas maneras de administrar el almacenamiento, normalmente el usuario espera tener al menos cierto nivel de control sobre lo que entra y sale de su dispositivo.
Ahora imagina descubrir, de repente, que varios gigabytes de tu almacenamiento fueron ocupados por un modelo de IA que jamás autorizaste instalar.
Eso es precisamente lo que denuncia Alexander Hanff, investigador de seguridad y privacidad conocido en redes como The Privacy Guy. Según Hanff, Google estaría utilizando Google Chrome para descargar e instalar localmente modelos de lenguaje sin solicitar autorización explícita al usuario y, en algunos casos, sin siquiera notificarlo de forma clara.
El problema no sería únicamente el espacio ocupado -que puede rondar varios gigabytes- sino también el precedente que esto establece. Desde la óptica de privacidad y control del usuario, la idea de que una empresa pueda instalar componentes de inteligencia artificial de manera silenciosa tiene implicaciones bastante delicadas.
Según Hanff, incluso si el usuario detecta el modelo y decide eliminarlo manualmente, este puede volver a descargarse e instalarse posteriormente. En otras palabras, no se trataría simplemente de una función opcional, sino de una imposición integrada dentro del ecosistema de software. Y en un momento donde la conversación alrededor de la IA ya está cargada de tensión, desconfianza y preocupaciones regulatorias, eso inevitablemente genera rechazo.
Lo más llamativo es que, según el investigador, Google no sería la única compañía aplicando este tipo de prácticas. Anthropic también habría implementado mecanismos similares relacionados con modelos de IA locales. Hanff sostiene además que este tipo de comportamiento podría entrar en conflicto con principios regulatorios y de consentimiento establecidos en la Unión Europea.
El trasfondo del asunto va mucho más allá de unos cuantos gigabytes de almacenamiento. La discusión real parece girar alrededor de algo mucho más profundo: hasta qué punto las grandes tecnológicas están dispuestas a empujar la inteligencia artificial dentro de los dispositivos de los usuarios, incluso cuando estos no necesariamente lo pidieron.
Y ahí surge una pregunta cada vez más incómoda: ¿quién protege realmente al usuario común frente al hambre de datos, expansión y control de las grandes compañías tecnológicas en plena carrera por dominar la IA?






