Asustor Ollama (IA)

Dami1

Représentant ASUSTOR
Membre Confirmé
23 Décembre 2013
8 422
305
178
46
France
www.asustor.com
0020_999_1751598478_ollama_256.png

Disponible sur séries: AS63, AS64, AS52, AS53, AS65, AS71, AS66, AS67, AS54, AS68, FS67, FS68

Ollama facilite la mise en œuvre locale de modèles de langage volumineux.
Open WebUI est une plateforme d'IA auto-hébergée, extensible, riche en fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Elle prend en charge divers exécuteurs LLM comme Ollama et les API compatibles OpenAI, avec un moteur d'inférence intégré pour RAG, ce qui en fait une solution de déploiement d'IA puissante.

Quelles sont les nouveautés de cette version ?
Version : 0.9.4.r01 :

- Version initiale d'Ollama Docker version 0.9.4 avec Open WebUI.
- L'application extraira et installera gemma3:4b comme modèle d'IA par défaut ; son installation sera donc plus longue. Veuillez réinstaller l'application si l'installation a échoué suite à un dépassement de délai.
 
une mise à jour est dispo

Version : 0.11.4.r01 :

- Mise à jour d'Ollama Docker version 0.11.4 avec Open WebUI version 0.6.22.
- L'application n'installe aucun modèle d'IA par défaut afin d'éviter tout problème d'exécution sur certains modèles de NAS.