WhyAI es una plataforma de Inteligencia Artificial generativa híbrida (offline + online) que se ejecuta completamente en el navegador, diseñada para ofrecer IA local, privada y accesible a cualquier persona, sin necesidad de conocimientos técnicos.
El proyecto sigue una filosofía privacy-first: sin cuentas, sin backend propio y sin bases de datos externas. El control de los datos permanece siempre en manos del usuario.
Todos los derechos reservados
Este proyecto no es Open-Source es únicamente creado con fines demostrativos.
WhyAI nace como un experimento técnico con un objetivo claro:
Hacer accesible la IA local sin conexión para personas comunes, eliminando configuraciones complejas y barreras técnicas.
Muchas soluciones de IA offline están pensadas para perfiles expertos. WhyAI abstrae esa complejidad y la presenta en una interfaz simple, multiplataforma y usable.
WhyAI utiliza una arquitectura híbrida:
- Modo Offline: ejecución local de modelos LLM mediante WebAssembly
- Modo Online: inferencia en la nube mediante APIs externas
Características comunes:
- Ejecución íntegra en el navegador
- Sin backend propio
- Misma interfaz para ambos modos
El modo offline está basado en wllama, permitiendo ejecutar modelos LLM localmente usando WebAssembly (WASM) con soporte multihilo.
- Descarga manual de modelos
- El usuario puede:
- Descargar los 3 modelos disponibles
- Descargar solo uno y usarlo exclusivamente
- Los modelos se descargan una sola vez y se almacenan en la caché del navegador
| Modelo | Tamaño | Rol | Descripción |
|---|---|---|---|
| LFM2 1.2B | Ligero | Básico | Muy optimizado y rápido, con razonamiento limitado |
| LLaMA 3.2 1B | Medio | Balanceado | Rápido e inteligente, recomendado por defecto |
| Gemma 2 2B | Pesado | Avanzado | Mejor razonamiento, mayor consumo de memoria |
Se descartaron modelos mayores (8B) debido a problemas de memoria en navegadores.
max_tokenstemperature- Otros parámetros de inferencia configurables por el usuario
- Control interno para evitar que el navegador se quede sin memoria
- Selección de modelos basada en equilibrio entre calidad, estabilidad y consumo de recursos
El modo online utiliza inferencia remota mediante una API externa.
- Modelo: LLaMA 4 70B
- Alta capacidad de razonamiento y generación de texto
- Baja latencia
- La API no guarda conversaciones
- Solo se registra el uso técnico de la API
- No se utilizan identificadores de sesión propios
WhyAI Duo es una implementación multimodal basada en el uso de dos modelos especializados, optimizados para sus respectivas tareas.
- La imagen se convierte a Base64
- Se envía a una API de visión
- El modelo visual analiza la imagen
- Se genera una descripción detallada
- La imagen se elimina
- La descripción se envía al modelo especializado en texto
Este enfoque permite obtener mejores respuestas textuales sin sobrecargar el modelo visual.
WhyAI permite la generación de imágenes mediante una API pública externa, disponible exclusivamente en modo online.
- El usuario introduce un prompt de texto
- El prompt se envía directamente a la API
- La generación ocurre en un modal independiente
- El proceso es bloqueante dentro del modal
- La imagen generada se muestra en la parte inferior del mismo modal
- El usuario puede cerrar el modal y seguir usando el chat mientras la imagen se genera
- El usuario decide si desea descargarla
- Tipo de modelo: no especificado por el proveedor
- Resolución y relación de aspecto: fijas (limitación de la API)
- Solo se admite texto
- Límite: 1 imágen por día (limitación de la API)
- El usuario es notificado al alcanzar el límite
- La API no almacena imágenes ni prompts
- Las imágenes no se pueden recuperar si no se descargan
- WhyAI no guarda ni cachea imágenes generadas
- Modelos de IA offline
- Assets de la aplicación (HTML, recursos estáticos)
- Cookie ligera para detectar primera visita
- Usada únicamente para mostrar el mensaje de bienvenida
- Historial de chats
El usuario puede borrar todos los datos fácilmente usando las herramientas del navegador.
- Sin cuentas
- Sin base de datos externa
- Sin anuncios
- Sin venta de datos personales
- WhyAI no recopila datos directamente
- Algunas APIs externas pueden registrar uso técnico
- No se recopilan errores ni métricas propias
- RAM: 4GB recomendados (6GB o 8GB ideal)
- CPU: Arquitectura x86 o ARM de 64 bits
- Almacenamiento: hasta 1.5 GB libres (para offline)
- ✅ Safari
- ✅ Google Chrome
- ✅ Microsoft Edge
❌ Firefox: no compatible actualmente con IA Offline.
- Windows 10 / 11
- Linux (la mayoría de distribuciones)
- macOS (Apple Silicon)
- Android 11+
- iOS 16+
macOS presenta mejor rendimiento debido a su arquitectura.
WhyAI puede instalarse como Progressive Web App, aunque es totalmente opcional.
- Abrir la web
- Añadir
install.htmla la URL - Instalar desde el navegador
- Estado: Beta
- Naturaleza: Experimental
- Descarga inicial pesada
- Consumo de RAM en modelos grandes
- Firefox no soportado
- Integración de WebGPU para IA Offline
- Historial de chats en modo online usando IndexedDB
- Optimización de uso de memoria
- Mejoras generales de rendimiento y estabilidad
WhyAI se encuentra en fase beta y actualmente no acepta contribuciones de código.
Se agradece especialmente:
- 🐞 Reporte de bugs
- 🧪 Feedback de beta testers
- 📋 Reportes de compatibilidad y rendimiento
- wllama — motor base para la ejecución de modelos LLM en el navegador (modo offline)
- Modelos: LLaMA (Meta) y Gemma (Google).
- Stack: Núcleo en Vanilla JS con integración de React para el módulo offline.
- Deploy (Online): Vercel.
- Página Web: GitHub Pages.
-
🌍 Demo funcional: https://angelsperez.github.io/ia-offline/
-
🧑💻 Repositorio: https://github.com/AngelSPerez/ia-offline
Sí. Tras descargar el modelo, no requiere conexión.
No. Por diseño.
Por privacidad y seguridad.
No, ni los tendrá.
No. Es un experimento técnico.








