Skip to content

cocodelacueva/ai-local

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

4 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

AI local para utilizar muchos modelos

Este repo sirve para ejecutar localmente un servidor que utiliza las APIs de todos los modelos pero que trabaja localmente para mayor seguridad. Lo vamos a instalar en windows.

Requisitos

Contenido

  • LiteLLM proxy service with PostgreSQL database
  • OpenWebUI: Interface web para interactuar con los modelo
  • Apache Tika service for document extration in Open WebUI
  • PostgreSQL: guarda la configuracion y el historial de conversaciones

Procedimiento para levantar

  1. Completar las key en el .env file Levantar docker ´´´bash docker network create proxy docker compose up -d ´´´
  2. Acceder a localhost:3002 y registrarse como admin

NOTA: If your LLM has a long context window (like Gemini), you can bypass embedding and retrieval in the Web Search settings. This prevents search results from being indexed in the vector database and instead feeds them directly into the LLM’s context window, potentially improving chat speed.

  1. Monitorear estado con LiteLLM: localhost:4000 El username es admin y pw es la master key

About

Openwebui + LiteLLM para usar ai local

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors