Cómo usar DeepSeek en Local con Ollama

DeepSeek es una empresa china de inteligencia artificial que ha irrumpido en el mercado tecnológico con su modelo de lenguaje R1, comparable en rendimiento a los desarrollados por gigantes como OpenAI, pero con una inversión significativamente menor. Fundada en 2023 por Liang Wenfeng, DeepSeek ha logrado desarrollar modelos de IA de código abierto que destacan por su eficiencia y bajo costo de desarrollo.

¿Por qué ejecutar DeepSeek localmente?

Implementar DeepSeek en tu máquina te ofrece ventajas como:

  • Privacidad: Tus datos permanecen en tu sistema, garantizando confidencialidad.
  • Personalización: Adapta el modelo a tus necesidades específicas.
  • Accesibilidad sin conexión: Utiliza la herramienta sin depender de una conexión a internet.

Pasos para la instalación:

Te recomiendo que te veas estos vídeos antes!!

  1. Instalar Ollama:
    • Descarga e instala Ollama
    • Verifica la instalación con: ollama --version
  2. Descargar el modelo DeepSeek R1:
    • Utiliza Ollama para obtener el modelo: docker pull ghcr.io/open-webui/open-webui:main
    • Ejecuta el modelo con: ollama run deepseek-r1
  3. Instalar OpenWebUI:
    • Descarga la imagen de OpenWebUI ejecutando: pip install open-webui
    • Inicia el contenedor de OpenWebUI: docker run -d -p 9783:8080 -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui ghcr.io/open-webui/open-webui:main
    • Accede a la interfaz en tu navegador en http://localhost:3000.

¡Y listo! Ahora puedes explorar las capacidades de DeepSeek directamente desde tu equipo, combinando la eficiencia de Ollama con la intuitividad de OpenWebUI.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *