- cmd
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main-
cmd
ollama run llama3.1
docker run -it --rm --network=host --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main docker pull dyrnq/open-webuidocker pull ollama/ollama
- docker load -i open-webui
- docker load -i ollama
- docker compose up -d
ollama pull llama3.2
ollama -v
ollama --version
ollama start
ollama list
ollama show
ollama ps -start
oolama ps -stop
ollama serve
ollama pull llama3.2