Bonjour,
Je viens de voir que l'application OLLAMA a été construite et disponible pour Asustor.
	
	
	
		
			
				
					
						
					
				
			
			
				
					
						
							
						
					
					www.asustor.com
				
			
		
	

Image Docker: LLM + Webui
	
	
	
		
post-uninstall.sh:
				
			Je viens de voir que l'application OLLAMA a été construite et disponible pour Asustor.
ASUSTOR NAS - Ollama + Open WebUI
Ollama facilite la mise en œuvre locale de modèles de langage volumineux.<br /> Open WebUI est une plateforme d'IA auto-hébergée, extensible, riche en fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Elle prend en charge divers exécuteurs LLM comme Ollama et les API...
				
Image Docker: LLM + Webui
ollama/ollama:latest
ghcr.io/open-webui/open-webui:latest
		Bash:
	
	docker run -d --name OllamaCCC -p 11434:11434  -v /share/Docker/Ollama_OpenWebUI/ollama:/root/.ollama:rw  --restart always ollama/ollama:latest
docker run -d --name OpenWebUI -p 30000:8080  -e OLLAMA_BASE_URL=http://${NAS_HOST_IP}:11434  -v /share/Docker/Ollama_OpenWebUI/open-webui:/app/backend/data:rw  --restart always  ghcr.io/open-webui/open-webui:latest
	post-uninstall.sh:
			
				Dernière édition: