Proxmox

Ollama – Run Local AI Models – #updates #llm #ai



Ciao! Torniamo a parlare di AI con un aggiornamento sul progetto Ollama, che sembra procedere spedito, ogni settimana rilasciano una nuova release.

Nell’ultima versione 0.1.34 abbiamo tanti bug fix ma anche alcune “importanti” nuove funzioni!

Fatemi sapere la vostra opinione nei commenti!

Link per approfondire

Mi raccomando di commentare il video e se possibile lasciarci un feedback positivo 🙂 grazie

Speaker: Dimitri Bellini – Zabbix Certified Trainer

Credits:
– Drops of H2O ( The Filtered Water Treatment ) by J.Lang

@Zabbix #ai #ollama #llm #generativeai #onpremise #openchat #quadrata #zabbix #zabbixitalia #virtualization #chatgpt #proxmox #business #howto #monitoring #opensource #enterprise #rockylinux #operatingsystem #rhel #centos #suse #linux #sysadmin #tutorial #GCP #UAE

[ad_2]

source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button