proxmox
Ollama – Run Local AI Models – #updates #llm #ai
Ollama – Run Local AI Models – #updates #llm #ai
#Ollama #Run #Local #Models #updates #llm
“Quadrata – Soluzioni OpenSource”
HI! Let’s go back to talking about AI with an update on the Ollama project, which seems to be proceeding quickly, every week they release a new release. In the latest version 0.1.34 we have many bug fixes but also some “important” new functions! Let me know your opinion in…
source
To see the full content, share this page by clicking one of the buttons below |
Ma installer ufficiale non usa docker. E sinceramente non ho visto altri video che ne parlano che usano docker per ollama 😮 (non dico non esistano però non sembra la prassi). Non so come era varie versioni fa. Ora è un solo binario
Cmq io lo ho installato su un container di proxmox, niente gpu e funziona (lentino). Ancora ci sto facendo esperimenti