proxmox

Ollama – Run Local AI Models – #updates #llm #ai

Ollama – Run Local AI Models – #updates #llm #ai

#Ollama #Run #Local #Models #updates #llm

“Quadrata – Soluzioni OpenSource”

HI! Let’s go back to talking about AI with an update on the Ollama project, which seems to be proceeding quickly, every week they release a new release. In the latest version 0.1.34 we have many bug fixes but also some “important” new functions! Let me know your opinion in…

source

 

To see the full content, share this page by clicking one of the buttons below

Related Articles

One Comment

  1. Ma installer ufficiale non usa docker. E sinceramente non ho visto altri video che ne parlano che usano docker per ollama 😮 (non dico non esistano però non sembra la prassi). Non so come era varie versioni fa. Ora è un solo binario

    Cmq io lo ho installato su un container di proxmox, niente gpu e funziona (lentino). Ancora ci sto facendo esperimenti

Leave a Reply