Cómo configurar un navegador AI local en su teléfono





En los últimos años, la IA generativa se ha abierto camino hacia los productos digitales convencionales que impulsamos a diario. Desde clientes de correo electrónico hasta herramientas de edición, está profundamente arraigado en una amplia gama de herramientas. Los navegadores web no son una excepción. Pero con la infusión de IA surge el espectro de la explotación de la privacidad. ¿Quiero que mis conversaciones ChatGPT más vulnerables pasen por los servidores de OpenAI o que mis archivos vivan en los servidores Copilot de Microsoft durante unos meses? Para la mayoría de usuarios, la respuesta es un rotundo no. Pero al mismo tiempo, cada vez es más difícil evitar la IA en los navegadores, especialmente debido a la comodidad que se ofrece.

Ahí es donde los navegadores locales de IA entran en escena. Piense en ellos como un navegador web normal, pero en el que el asistente de IA se ejecuta completamente en su dispositivo en lugar de enviar sus consultas a un servidor en la nube. En términos generales, es como interactuar con Gemini Nano en el Pixel 10 Pro, donde la IA de Google puede incluso realizar algunas tareas sin siquiera requerir una conexión a Internet. Pero usar la IA en el dispositivo en un navegador local no es un proceso sencillo. Pero lo más importante es que debes elegir un navegador que te permita ejecutar un modelo de IA localmente en el dispositivo. Según los comentarios de la comunidad, el navegador de IA local más popular parece ser Puma.

Disponible en Android e iOS, este navegador centrado en la privacidad permite a los usuarios alejarse del bastión de Google y les permite elegir entre Ecosia y DuckDuckGo como motores de búsqueda. Más importante aún, le permite ejecutar instancias locales de los modelos de IA de las series Llama 3.2, Ministral, Gemma y Qwen completamente en el dispositivo. Entonces, ya sea que se trate de una consulta de conocimiento genérica o de una tarea inmediata como un rediseño y un resumen, ninguna interacción sale de su teléfono.

la configuración

Cuando instala por primera vez el navegador Puma, ya tiene el modelo Llama 3.2 de código abierto de Meta configurado y ejecutándose. Pero si quieres descargar otro modelo de IA, sigue estos pasos:

  1. En la página de inicio del navegador, toque el ícono de Puma en la parte inferior.
  2. En el menú deslizante que aparece, toque la opción Chat local de LLM.
  3. En la página de chat, haga clic en el botón que dice “Llama 3.2 1B” en el campo del compositor.
  4. Al tocarlo, se abre una lista de los modelos de IA locales disponibles. Después de la primera instalación, solo está disponible Llama 3.2 1B Instruct. Selecciona la opción “Más modelos”.
  5. En la página siguiente, verá una lista completa de modelos, incluidos Google Gemma, Mistral, DeepSeek, Qwen, Microsoft Phi y más. Selecciona el botón “Obtener” correspondiente al modelo de IA que prefieras y se descargará e instalará.

La mayoría de los modelos tienen un tamaño superior a 1 GB, por lo que llevará algún tiempo descargarlos e instalarlos en su teléfono. Y, por supuesto, cuanto más aventurero seas, más almacenamiento acapararán. Una vez que se haya configurado el modelo de IA, puede volver a la opción de chat local de LLM, elegir el modelo de su elección e iniciar una conversación.

Ahora, la pregunta más importante es: ¿por qué querrías un modelo de IA local cuando simplemente puedes usar las aplicaciones ChatGPT o Gemini? ¿O evitarlo por completo invocando a Gemini como asistente predeterminado en teléfonos Android, o ChatGPT (a través de Siri y Apple Intelligence) en tu iPhone? Bueno, la privacidad es la respuesta obvia. Sin embargo, hay ocasiones en las que es posible que no tengas una conexión a Internet a mano o que simplemente hayas habilitado el modo sin conexión para trabajar concentrado. Para tales escenarios, estos modelos de IA locales resultan útiles, ya que pueden realizar su trabajo sin ningún requisito de conexión. La única advertencia es que no pueden realizar trucos elegantes como la generación de imágenes localmente. Además, a diferencia de la aplicación Google AI Edge Gallery, el navegador Puma no le permite personalizar la carga de trabajo de IA en CPU y GPU, ni ajustar aspectos como el árbol joven y la temperatura.