VMware
Configura Ollama en Red Local: ¡Lleva la IA a Toda tu Oficina y Equipos de Cómputo! | Paso a Paso
Convierte Tu PC en un Servidor AI con Ollama! ¿Estás listo para llevar tu red local al siguiente nivel? En este video, te …
[ad_2]
source
Convierte Tu PC en un Servidor AI con Ollama! ¿Estás listo para llevar tu red local al siguiente nivel? En este video, te …
[ad_2]
source
Lorem ipsum dolor sit amet, consectetur.
super el video!!!
Tienes información, de como hacerlo en ubuntu?
muy muy bueno el video. no daba con la tecla. el tutorial es sencillo pero perfecto. gracias
Confirmado, me voy por la RTX 4070 TI Super de 16GB. Gracias por el video!
gracias!!!
hola, genial info… como se puede hacer lo mismo pero que solo responda según documentos que le pases? como pdf u otros? 😊
Qué pc o servidor sería para ejecutar el llama3 de meta?
Gracias por su respuesta
1ero los pasos normales y si no funciona, 6:10 comando para dar permiso a windows de los piungs, muchas gracias por todo el tutorial 🙂 6:46 comanda de que ollama escuche a totes les interfaces y configurar variable entorno HOST_OLLAMA amb 0.0.0.0 (disculpen es un resumen casi para mi porque en breve tendré que volver al video jeje) sysdm.cpl o anythingllm y 9:52apibase para vscode
excelente explicación, gracias 👍
Buenísimo !!!! ahora a poner a prueba, no era nada sencillos, pero no imposible. Gracias!!!!
❤ amo este canal
Me super encanto este vídeo 😍
Shit!! Ese video es oro puro!!!
¡Soy fan de este canal! ¡Gracias por este contenido de tanto valor!
⚡ la manija. Gracias 🫂