Polémica por Google Chrome: denuncian la instalación silenciosa de un modelo de IA de 4 GB en los equipos

Usuarios y expertos en seguridad advierten sobre la descarga automática de Gemini Nano sin consentimiento explícito. El archivo ocupa varios gigabytes y no puede eliminarse de forma permanente.

Una creciente controversia rodea a luego de que usuarios y especialistas en ciberseguridad denunciaran la instalación automática de un modelo de inteligencia artificial de aproximadamente 4 GB en equipos personales, sin notificación clara ni consentimiento explícito.

El archivo en cuestión, identificado como “weights.bin”, forma parte de , la versión local del sistema de inteligencia artificial de Google diseñada para operar directamente en los dispositivos. Según los reportes, el navegador descarga este paquete en segundo plano, incluso si el usuario no utiliza funciones vinculadas a IA.

La situación genera preocupación no solo por el consumo de espacio —que puede afectar a equipos con almacenamiento limitado— sino también por la falta de transparencia en el proceso. Varios usuarios comenzaron a detectar problemas de rendimiento o disminución repentina de capacidad en sus discos, lo que los llevó a identificar la presencia de este archivo en carpetas ocultas del sistema.

El investigador de seguridad fue uno de los primeros en advertir públicamente sobre el comportamiento del navegador. Según explicó, al eliminar manualmente la carpeta “OptGuideOnDeviceModel” —donde se aloja el archivo—, el sistema vuelve a descargarlo automáticamente a los pocos minutos, lo que limita la capacidad del usuario para gestionar su propio almacenamiento.

El despliegue de modelos de IA local responde a una tendencia creciente en la industria tecnológica, que busca reducir la dependencia de la nube y mejorar la velocidad de respuesta en aplicaciones como redacción automática, resúmenes o asistencia contextual. Sin embargo, la implementación sin aviso previo plantea interrogantes sobre prácticas de consentimiento y control del usuario.

Desde el punto de vista técnico, este tipo de modelos requieren grandes volúmenes de datos para funcionar correctamente, lo que explica el tamaño del archivo. No obstante, especialistas advierten que cualquier software que se instale sin intervención directa del usuario puede representar un riesgo potencial, ya sea en términos de seguridad, privacidad o uso de recursos.

Otro punto cuestionado es la falta de claridad en la nomenclatura. El archivo no hace referencia directa a inteligencia artificial ni a Gemini, lo que dificulta su identificación por parte de usuarios no técnicos. Esta decisión, según analistas, podría generar confusión y contribuir a que pase desapercibido como una actualización rutinaria del sistema.

La reacción en redes sociales no tardó en llegar, con críticas centradas en la falta de transparencia y en la imposibilidad de desactivar fácilmente esta funcionalidad. Aunque Google no emitió hasta el momento una respuesta oficial detallada sobre estos señalamientos, el episodio reabre el debate sobre los límites en la integración de inteligencia artificial en productos de uso masivo.

Mientras tanto, expertos recomiendan revisar las configuraciones avanzadas del navegador y monitorear el uso de almacenamiento, especialmente en dispositivos con recursos limitados. El caso pone en evidencia una tensión creciente entre innovación tecnológica y control del usuario, en un contexto donde la inteligencia artificial avanza más rápido que las regulaciones.