Aunque lo hayamos normalizado, el primer miedo que uno tenía a la inteligencia artificial era siempre el mismo: nuestros datos salían de nuestros dispositivos, viajaban a servidores que no controlábamos y no entendíamos muy bien qué información estábamos cediendo, ni a quién.
Como pasa siempre con la tecnología, el ser humano tiende a normalizarlo todo. Y aunque esa preocupación seguía (y sigue) ahí, ese miedo instintivo de no saber a dónde iban nuestros datos se fue atenuando. La utilidad empezó a pesar más: respuestas rápidas, cada vez mejores, que nos solucionaban problemas reales.
En las empresas, sin embargo, este miedo sigue siendo muy latente. Los riesgos, y sobre todo el conocimiento de los mismos, hicieron que se empezara a hablar cada vez más de alternativas: soluciones ad hoc, entornos controlados y, sobre todo, inteligencia artificial en local.
Cuando hablamos de IA local nos referimos, en esencia, a que el modelo se descarga y se ejecuta directamente en tu dispositivo, es decir, todo ocurre en tu ordenador o en tu móvil, sin necesidad de enviar nada a servidores externos para que procesen la información.
En un principio, con esto se resolvería uno de los grandes miedos iniciales de cualquier usuario: los datos no salen. Pero no nos engañemos: en la práctica no tiene nada que ver cómo funciona la IA en local en un ordenador y cómo funciona en un dispositivo móvil. Creo que entender esta diferencia es fundamental para no caer en una falsa sensación de seguridad.
Durante algún tiempo, ejecutar modelos de inteligencia artificial en local no era algo accesible para el usuario medio, porque requería ordenadores relativamente potentes, a menudo con GPUs dedicadas, y cierto conocimiento técnico para configurarlo todo.
A cambio de esa dificultad, la IA en local permite a usuarios avanzados tener un mayor control sobre lo que ocurre en su ordenador: descargarse el modelo, ejecutarlo desde la terminal, integrarlo en su propio flujo de trabajo o modificar su comportamiento. Incluso si se utilizan programas con interfaz gráfica, que lo simplifican, se puede entender qué estaba pasando “por debajo”.
Así, la idea de IA local sí se acercaba bastante a lo que muchos entienden por control: no depender de terceros y poder supervisar, al menos en parte, cómo se ejecuta el sistema.
El problema es que lo que está ocurriendo ahora con la llegada de la IA al móvil es diferente.
Las redes sociales ya están, con su ruido habitual, explicando que modelos como Gemma 4 son muy seguros porque funcionan en local y pueden utilizarse sin conexión a internet, reforzando esa idea (en parte engañosa) de seguridad.
Lo que no se suele explicar es que el usuario no descarga un modelo para ejecutarlo y accede a él directamente, sino a una aplicación (en concreto Google AI Edge Gallery). En el móvil no accedes directamente al modelo (no hay terminal, no hay configuración técnica, no hay visibilidad ni control sobre los procesos internos) sino que todo ocurre dentro de una app, es decir, una capa diseñada para ser simple, rápida y accesible… pero ¿a qué precio?
Y aquí aparece el verdadero problema que casi nadie está explicando: esa app no es solo el modelo, sino todo lo que hay a su alrededor: los permisos que solicita, las funciones que habilita, la forma en la que conecta el modelo con el sistema operativo y, lo que es más peligroso, las decisiones que puede tomar dentro del dispositivo.
Es decir, resolvemos el problema de que los datos no salgan, pero aparece otro, y puede que más complejo.

Lo que hay que saber es que no se trata de otro modelo más que puede ejecutarse sin conexión a internet, ni que procese texto, imágenes o audio directamente en el dispositivo. Con este movimiento, Google está introduciendo en tu móvil, de forma nativa, algo que hasta hace poco era más difícil: la capacidad de planificar y ejecutar acciones solo.
¿Solo? Sí, solo. Y aquí es donde entra un concepto que seguramente ya has empezado a escuchar, aunque muchas veces se explica de forma superficial: los agentes.
Durante un tiempo, la inteligencia artificial ha funcionado como un sistema reactivo (le hacías una pregunta, generaba una respuesta y todo terminaba ahí), pero los agentes cambian eso.
Un agente es, en esencia, un sistema que no solo responde, sino que puede planificar, tomar decisiones intermedias y ejecutar acciones utilizando herramientas. En lugar de limitarse a generar una respuesta, interpreta una instrucción, la descompone en pasos, decide qué necesita para completarla y actúa en consecuencia.
Para poder hacer todo eso, el modelo necesita interactuar con el entorno, es decir, necesita permisos (acceso a funciones del sistema, a aplicaciones, a ciertos recursos del dispositivo).
No lo va a hacer por su cuenta, sino pidiendo autorización explícita al usuario, igual que con cualquier otra app. Lo que debería preocuparnos es saber cómo se utilizan esos permisos una vez concedidos, porque en una app de las que solemos utilizar, se accede a funciones de manera más o menos predecibles: sabes cuándo estás usando la cámara, cuándo grabas audio o cuándo accedes a un archivo.
Con un agente, esa relación cambia. El agente “se busca la vida” para solucionar un problema. No le dices cómo solucionarlo, él busca funciones en el dispositivo (a las que les hemos dado acceso) y puede decidir cuándo utilizar una herramienta para hacer una tarea. Puede encadenar acciones, activar funciones o interactuar con distintas partes del sistema como parte de un proceso más amplio.
Y eso es exactamente lo que trae consigo el nuevo modelo de Google, Gemma 4. No es simplemente un modelo que corre en local, sino un sistema preparado para funcionar como agente dentro del dispositivo. Es capaz de interpretar instrucciones complejas, dividirlas en pasos y ejecutar acciones utilizando las capacidades del propio móvil.

Veamos la diferencia con un ejemplo: hoy en día le haces una pregunta a cualquier herramienta de IA y, si le pides que analice una imagen, le das acceso a la cámara o a tu galería. En un modelo tradicional, tú decides cuándo haces la foto, cuándo la subes y cuándo se analiza.
Con un sistema como el que plantea Google AI Edge Gallery (la app donde accedemos al modelo), la lógica cambia. A partir de una instrucción, el sistema podría decidir por sí mismo que necesita acceder a una imagen, buscar en tu galería o utilizar la cámara para completar la tarea. Si además tiene acceso a otros elementos del dispositivo (como contactos, calendario o incluso aplicaciones concretas a las que le diste acceso sin saber aún para qué) podría combinarlos para darte una respuesta más completa o ejecutar una acción directamente.
Esto no pasa porque esté “espiando” ni accediendo sin permiso, sino porque está utilizando las herramientas que tú mismo has habilitado para resolver lo que le has pedido.
Si a eso le sumamos que estamos hablando de Google y todo su ecosistema: Gmail, Google Maps, calendario, almacenamiento, aplicaciones conectadas … se integra con capacidades agénticas en el dispositivo, el potencial es enorme… pero los peligros, también.
Aclaro que, en el caso de Google AI Edge Gallery, los accesos no son obligatorios sino que dependen de las funcionalidades que quieras utilizar (si decides trabajar con imágenes, la aplicación puede solicitar acceso a la galería o a la cámara, para funciones de voz, necesitará acceso al micrófono…)ni se activan todos de golpe, sino que se van solicitando. Tampoco hay evidencia de que la aplicación acceda de forma oculta a contactos, correos o información personal sin que el usuario lo permita explícitamente, pero eso no significa que el problema desaparezca, porque en el momento en que concedes esos accesos, le das permisos para interactuar con partes reales de tu dispositivo sin que tú lo sepas.
Y ojo, al dar permiso, la responsabilidad pasa a ser del usuario.
Durante años pensamos que el problema de la inteligencia artificial era la falta de control sobre la información que, voluntariamente, le dábamos, y que dependíamos de sistemas externos, de infraestructuras que no entendíamos y de compañías que gestionaban nuestros datos sin que tuviéramos visibilidad real sobre ello. La IA en local apareció como la solución lógica a ese problema, y en muchos sentidos lo es, pero cuando hablamos de dispositivos móviles, en los que tenemos casi “nuestra vida”, aparecen problemas más complejos.
Esa “ceguera” sobre lo que pasaba con nuestros datos, pasa a ser “ceguera” sobre lo que pasa en nuestro teléfono, es decir, en el dispositivo donde tenemos archivos, conversaciones personales, ubicación, micrófono la app del banco… y hasta las fotos de nuestros hijos.
El problema ahora no es intercambiar datos por servicio, sino ceder el control de una de las herramientas más importantes que tenemos y que por ello ha sido siempre el objeto de deseo de las empresas: nuestro teléfono.
Quizá haya que empezar a preguntarse qué tipo de riesgo preferimos asumir.

