Instalación IA en local con Ollama sobre Docker

19 hours ago
4

Tutorial de instalación y configuración de Ollama en un contenerdor Docker para poder usar IA en local.
Ollama es una plataforma open‑source diseñada para ejecutar modelos de inteligencia artificial LLM (Large Lenguage Model) localmente, es decir, en tu propio equipo, sin necesidad de depender de la nube.

Repositorio GitHub Ollama: https://github.com/ollama/ollama

Enlace del plugin para usar la IA desde el navegador Chrome: https://chromewebstore.google.com/detail/page-assist-una-web-ui-pa/jfgfiigpkhlkbnfnbobbkinehhfdhndo?pli=1

Para poder instalar Ollama necesitas tener instalado Docker. Existen los siguientes tutoriales de instalación de Docker en el canal:
Instalar Docker bajo Windows: https://youtu.be/xkbqpTCkLb8
Instalar Docker bajo Linux: https://youtu.be/SXmHBMjxIZM

Tutoriales de las otras herramientas usadas durante la instalación:
Instalación de MobaXterm: https://youtu.be/hbshNQNPolU
Instalar Portainer: https://youtu.be/DwDfSA4vubU

Donaciones: paypal.me/laboratoriorafa
Todos los video están disponibles en la web del Laboratorio de Rafa: https://laboratoriorafa.mooo.com/

Loading comments...