Bonjour,
Je viens de voir que l'application OLLAMA a été construite et disponible pour Asustor.
www.asustor.com

Image Docker: LLM + Webui
post-uninstall.sh:
Je viens de voir que l'application OLLAMA a été construite et disponible pour Asustor.

ASUSTOR NAS - Ollama + Open WebUI
Ollama makes it easy to get up and running with large language models locally.<br /> Open WebUI is an extensible, feature-rich, and user-friendly self-hosted AI platform designed to operate entirely offline. It supports various LLM runners like Ollama and OpenAI-compatible APIs, with built-in...

Image Docker: LLM + Webui
ollama/ollama:latest
ghcr.io/open-webui/open-webui:latest
Bash:
docker run -d --name OllamaCCC -p 11434:11434 -v /share/Docker/Ollama_OpenWebUI/ollama:/root/.ollama:rw --restart always ollama/ollama:latest
docker run -d --name OpenWebUI -p 30000:8080 -e OLLAMA_BASE_URL=http://${NAS_HOST_IP}:11434 -v /share/Docker/Ollama_OpenWebUI/open-webui:/app/backend/data:rw --restart always ghcr.io/open-webui/open-webui:latest
post-uninstall.sh:
Dernière édition: