Formación bonificada para empresas

Diploma emitido por FUNDAE


Ejemplo de diploma acreditativo FUNDAE + Ampliar

i ¿Quiénes somos?
Valore esta página: Votos: 4.1/5 (180 votos)


Curso online de DeepSeek Domina la herramienta de cero a producción bonificado

Cursos bonificados Calendario: Flexible.

FUNDAE cursos Fecha disponible: Inmediata.

Cursos bonificados seguridad social Porcentaje de Bonificación: 100%

Cursos online bonificados Diploma acreditativo emitido por FUNDAE.

Cursos bonificados para empresas Certificado acreditativo para concursos y oposiciones.

cursos virtuales bonificados Temario Personalizado.

FUNDAE cursos Modalidades: teleformación, aula virtual y MIXTA

Curso online de Prompts en el sector domina

El 21,1% de las empresas españolas usa IA en T1 2025 y DeepSeek (China) ofrece prestaciones cercanas a GPT-4 con coste muy inferior y código abierto

21,1%
empresas españolas de 10+ empleados que usa IA en T1 2025 (+8,7pp vs 2024, INE Encuesta TIC publ. 22-oct-2025)
58,2%
empresas grandes españolas que ya usa IA en 2024 (Fundación Cotec, oct-2025)

El curso

📊 ¿Por qué este curso?
open source
DeepSeek (China, ene-2025) ofrece pesos abiertos con prestaciones comparables a GPT-4 y coste muy inferior; instalación local vía Ollama. AI Act GPAI vigente desde 2-ago-2025 y atención especial a transferencias internacionales (RGPD Cap. V). El 21,1% de las empresas españolas usa IA.
Fuente: DeepSeek.com e INE T1 2025
Plan de Igualdad Empresas Duración
La duración del curso de DeepSeek Domina la herramienta de cero a producción es de 40 horas, acreditadas en el Diploma del mismo.

PLAZO DE REALIZACIÓN:

El plazo se puede establecer según las necesidades del alumno o del plan de formación de la empresa.
empresas de cursos bonificados

Objetivos

  • Implementar modelos de IA open-source instalando, configurando y desplegando DeepSeek en entornos de producción
  • Optimizar y personalizar modelos de IA aplicando técnicas de fine-tuning para adaptarlos a tareas específicas
  • Integrar DeepSeek con APIs, chatbots y herramientas empresariales para automatizar procesos y mejorar análisis de datos
  • Aplicar modelos avanzados de razonamiento para resolver problemas complejos en entornos locales o en la nube
  • Desarrollar soluciones escalables de IA que reduzcan costes operacionales y mejoren la eficiencia empresarial


Bonificación Bonificación Curso bonificable al 100%
Bonificacion

Bonificación

Este curso puede ser bonificado al 100% para la empresa receptora, incluso aunque esta tenga un porcentaje de copago en razón de su número de empleados en plantilla. El coste de la formación se recuperará mediante descuento en el pago de los seguros sociales.
Este descuento será aplicable libremente en cualquier mes del año posterior a la fecha en que haya finalizado la formación. Podrán bonificarse las matrículas de aquellos alumnos que realicen al menos el 75% del curso con éxito.
Modalidades Modalidades Teleformación · Aula virtual · Mixta · Presencial
Modalidades

Modalidades

EN CURSOS ONLINE
Teleformación: En esta modalidad todo el curso se realiza a través de internet, con acceso las 24 hs. todos los días de la semana y plazo máximo de seis meses. No hay actividades como clases a las que el alumno deba asistir en horarios y fechas programados.
Aula virtual: En esta modalidad la formación se imparte mediante clases en directo a través de internet, es decir clases tele-presenciales, que se llevarán a cabo a través de ZOOM, Skype u otra herramienta a convenir.
Modalidad MIXTA: Combinación de las dos modalidades anteriores. Los trabajadores asisten a clases en directo (por ejemplo una a la semana) y entre clases disponen de material para avanzar en el curso en la plataforma. Es la más completa para grupos de trabajadores que realizan un mismo curso.

EN CURSOS PRESENCIALES o SEMI - PRESENCIALES
En esta modalidad los trabajadores realizan el curso asistiendo físicamente a un aula en la que se imparte la formación. Puede ser complementada igualmente con acceso a una plataforma online entre clases. Para esta modalidad se requiere una consulta previa de disponibilidad en la ciudad donde se desee llevar a cabo.

cursos tripartita

Temario


NOTA:

Trabajamos con la metodologia de curso personalizado, creada por Ciberaula en 1997. Usted puede solicitar un curso a la medida de sus objetivos, que combine lecciones de 2 o mas cursos en un plan de formacion a su medida. Si este es su caso consultenos, esta metodologia ofrece un aprovechamiento maximo de la formacion en los cursos bonificados para trabajadores.

El temario predefinido del curso online de DeepSeek Domina la herramienta de cero a producción es el siguiente:

1 Introducción al curso y a la Plataforma

1.1 Introducción al curso

1.2 Introducción a la Plataforma de Udemy

2 Introducción a DeepSeek

2.1 DeepSeek: un cambio de paradigma en el campo de la IA

2.2 El desafio del razonamiento en los Modelos de Lenguage (LLMs)

2.3 DeepSeek R1: El modelo más conocido de DeepSeek

2.4 Timeline y evolución de DeepSeek

2.5 Primeros pasos con DeepSeek Chat

2.6 Funcionalidad de razonamiento de DeepSeek R1

2.7 Funcionalidad de Busqueda en internet de DeepSeek

2.8 Multimodalidad en DeepSeek y reconocimiento de imagenes

3 Por qué DeepSeek es relevante

3.1 Impacto Global de DeepSeek y razones que justifican tal impacto

3.2 Chain-of-Thought para el razonamiento paso a paso

3.3 Aprendizaje por refuerzo y destilación de modelos

4 Caracteristicas de DeepSeek R1

4.1 Innovación Tecnologica de DeepSeek-R1

4.2 Características y limitaciones de DeepSeek R1

4.3 Razonamiento y Aha Moment propio de DeepSeek R1

4.4 Destilación: potenciando modelos más pequeños

4.5 Open-source, licencia MIT y costes reducidos

4.6 Benchmark de rendimiento y entornos edge

5 Herramientas Clave para acceder a DeepSeek

5.1 Diferentes Opciones de alojamiento y despliegue del modelo DeepSeek

5.2 Diferentes herramientas para integrar y desplegar DeepSeek

5.3 Plataformas para acceder a LLMs de manera fácil

5.4 Ollama y LM Studio para ejecutar DeepSeek en nuestro ordenador local

5.5 Hugging Face: el mayor repositorio de modelos Open-source del mundo

5.6 LangChain: la libreria para el desarrollo de aplicaciones empresariales con LLMs

5.7 Flowise: Desarrollo de aplicaciones con LLMs sin programar

6 Acceso a DeepSeek a través de API

6.1 API de DeepSeek y acceso al modelo

6.2 OpenRouter: la API unificada para acceder a LLMs como DeepSeek

6.3 Replicate: la plataforma para acceder fácilmente a LLMs

6.4 Ejecutando DeepSeek desde Replicate

6.5 TogetherAI: la plataforma fácil para acceder a LLMs como DeepSeek

7 Ollama: Modelos Open-Source en local

7.1 Ollama: La plataforma para ejecutar LLMs en local

7.2 Diferentes modelos Open-source disponibles en Ollama

7.3 Instalación y ejecución de Ollama

7.4 Instalando y ejecutando DeepSeek en local a través de Ollama

7.5 Interfaz visual para el modelo de DeepSeek en local

8 Funciones Clave de LangChain aplicadas a LLMs

8.1 Introducción a las Funciones Clave de LangChain

8.2 Casos de uso y componentes de LangChain

8.3 Diferentes tipos de modelos LangChain y requisitos

8.4 Gestión de entradas del LLM con el módulo de Prompts de LangChain

8.5 Combinación de LLMs con otros componentes a través de cadenas

8.6 Dando acceso a datos externos a través de Índices de LangChain

8.7 Dando la capacidad de memorizar a ChatGPT a través de Memory LangChain

8.8 Dando acceso a herramientas gracias al módulo de Agents de LangChain

9 Desarrollo de soluciones avanzadas con DeepSeek y LangChain

9.1 Instalación de librerías y configuración del entorno

9.2 ChatOllama: Función fácil para interactuar con el modelo de DeepSeek

9.3 PrompTemplate: Personalizando y formateando las instrucciones de DeepSeek

9.4 OutputParsers: Estructurando la salida del modelo de DeepSeek

9.5 Documents, DocumentLoaders y Text Splitters: accediendo a información

9.6 Dando acceso a DeepSeek a Documentos

9.7 ChatMessageHistory: Dando acceso al modelo al histórico de conversaciones

9.8 Desarrollo de Agentes con DeepSeek

9.9 Todo sobre las Cadenas: basic chains, sequential chains y summarization

10 Desarrollo de Aplicaciones avanzadas Sin Programar con DeepSeek

10.1 Introducción a Flowise: el entorno de aplicaciones con LLMs sin programar

10.2 Características de Flowise

10.3 Instalación de Flowise

10.4 Primeros pasos con Flowise

10.5 Acceso a DeepSeek desde Flowise

10.6 OpenRouter, Ollama y HuggingFace para acceder a DeepSeek desde Flowise

11 Modelos de Lenguage con Acceso a Información (RAGs)

11.1 Introducción a los LLM con Conocimiento (RAG)

11.2 Consideraciones importantes y aplicaciones reales de los RAG

11.3 Cómo se construye un RAG

11.4 Desarrollo de un RAG con DeepSeek y Flowise

12 Hugging Face: el mayor repositorio de modelos Open-Source

12.1 Introducción a Hugging Face

12.2 Componentes de Hugging Face

12.3 Plataforma de Hugging Face

12.4 Fundamentos de la librería de Transformers

12.5 Laboratorio Práctico de Hugging Face

12.6 Acceso al modelo de DeepSeek a través de HuggingFace

13 Desarrollo de Agentes con DeepSeek

13.1 Introducción a los Agentes

13.2 Diferentes tipos de Agentes

13.3 Laboratorio Práctico: Desarrollo de Conversational Agent, RAG y Multi-Agent

13.4 Function Calling e Integración con DeepSeek R1 para el desarrollo de Agentes

13.5 Alternativas para el desarrollo de un agente avanzado con DeepSeek

13.6 Laboratorio Práctico: Desarrollo de un agente con DeepSeek V3

13.7 Laboratorio Práctico: Desarrollo de un agente con DeepSeek R1 Tool Calling


Todo lo que necesitas saber antes de empezar

Información práctica — pulsa cada sección para desplegarla

💻 Software

  • Python 3.10 o superior (3.13 recomendado) — instalación gratuita desde python.org.
  • Ollama (gratuito, open-source) para ejecutar DeepSeek en local.
  • LM Studio (gratuito) como interfaz visual alternativa.
  • Node.js 22 LTS para instalar Flowise (gratuito, open-source).
  • VS Code (gratuito) o cualquier editor de código.
  • Cuenta gratuita en Hugging Face, OpenRouter y Replicate — todas con tier gratuito suficiente para la mayor parte del curso.
⚠️ Aviso sobre costes de API: Los módulos de acceso a DeepSeek vía API (DeepSeek API, OpenRouter, TogetherAI) requieren créditos de pago. Estima entre 5 y 20 € para completar los laboratorios prácticos. DeepSeek ofrece precios muy inferiores a OpenAI; muchas plataformas dan créditos gratuitos de inicio. Puedes sustituir casi todos los ejercicios usando Ollama en local sin ningún coste.

?️ Hardware

  • RAM mínima: 8 GB para ejecutar los modelos destilados pequeños (1.5B, 7B) con Ollama.
  • RAM recomendada: 16 GB si quieres correr el modelo DeepSeek R1 14B en local con comodidad.
  • Espacio en disco: 10-30 GB libres según el modelo que descargues.
  • CPU de los últimos 6 años. GPU dedicada no obligatoria; ayuda pero Ollama funciona en CPU.

🔑 Cuentas necesarias

  • Hugging Face — gratuita.
  • OpenRouter — gratuita (pago por uso mínimo).
  • Replicate / TogetherAI — gratuitas con créditos de inicio.

📚 Conocimientos previos

  • Python básico (variables, funciones, instalar paquetes con pip) — imprescindible para los módulos de LangChain y agentes.
  • Familiaridad con la terminal/línea de comandos.
  • No se requiere experiencia previa con LLMs ni con DeepSeek.

A lo largo del curso construyes aplicaciones reales con DeepSeek, desde un chat local hasta agentes multi-herramienta desplegados en producción. Cada proyecto resuelve un caso de uso empresarial concreto.

  1. Chat local con DeepSeek vía Ollama — instalas el modelo DeepSeek R1 7B en tu máquina, lo arrancas con Ollama y añades una interfaz web. Caso de uso: prototipo interno sin enviar datos a servidores externos.
  2. Pipeline RAG con Flowise sin código — conectas DeepSeek a documentos PDF corporativos usando Flowise y un vector store. Caso de uso: chatbot de soporte que responde preguntas sobre manuales o contratos propios.
  3. API REST con LangChain y DeepSeek — construyes un endpoint Python que recibe una consulta, la procesa con una cadena LangChain y devuelve respuesta estructurada (JSON). Caso de uso: microservicio de análisis de texto integrable en cualquier aplicación.
  4. Agente con function calling y herramientas externas — el agente usa DeepSeek R1 Tool Calling para buscar datos, ejecutar cálculos y devolver resultados paso a paso. Caso de uso: asistente de ventas que consulta CRM y genera resúmenes automáticos.
  5. Sistema multi-agente conversacional — orquestas varios agentes especializados (RAG agent + summarizer + validator) que colaboran para responder preguntas complejas. Caso de uso: plataforma interna de análisis de informes financieros o legales.
¿Estás listo para DeepSeek de cero a producción?
5 preguntas rápidas para saber si tienes la base necesaria. Cada una tiene una respuesta claramente mejor que las otras.
1 Necesitas instalar una librería Python llamada 'langchain'. ¿Cómo lo haces?
2 ¿Qué es un LLM (Large Language Model)?
3 ¿Qué ventaja principal tiene un modelo open-source como DeepSeek frente a uno propietario como GPT-5?
4 En Python, ¿qué hace este fragmento? variable = {'rol': 'asistente', 'temperatura': 0.7}
5 ¿Qué es RAG (Retrieval-Augmented Generation) en el contexto de los LLMs?

Estos son los errores que cometen casi todos los alumnos al empezar con DeepSeek en entornos reales. Evítalos desde el primer día.

  • Intentar correr DeepSeek R1 70B en un portátil con 8 GB de RAM. El modelo no cabe en memoria y Ollama fallará o irá inutilizable. Empieza con la versión 1.5B o 7B y escala cuando tengas claro el hardware necesario.
  • No crear un entorno virtual de Python antes de instalar dependencias. Mezclar librerías de distintos proyectos rompe las instalaciones. Usa siempre python -m venv venv antes de pip install.
  • Hardcodear claves de API directamente en el código. Subir un script con tu API key de OpenRouter o DeepSeek a GitHub expone tus credenciales. Usa siempre variables de entorno o archivos .env con python-dotenv.
  • Asumir que el modelo recuerda conversaciones anteriores por defecto. Sin implementar memoria explícita (ChatMessageHistory en LangChain), cada llamada a la API es independiente. El historial hay que pasarlo manualmente en cada petición.
  • Ignorar el parámetro de temperatura al construir cadenas. Con temperatura 1.0 los agentes generan respuestas inconsistentes en tareas estructuradas. Para extracción de datos o function calling, usa valores entre 0.0 y 0.3.
  • Confundir fine-tuning con RAG. RAG da acceso a documentos sin modificar el modelo; fine-tuning cambia los pesos. Para la mayoría de casos empresariales (chatbot sobre documentos propios), RAG es suficiente, más barato y más rápido de implementar.
  • No gestionar los errores de la API en producción. Las APIs de LLMs devuelven errores 429 (rate limit) o 503 con frecuencia. Sin try/except y lógica de reintento, tu aplicación caerá ante el primer pico de tráfico.
  • Usar Flowise sin asegurar la instancia en producción. Por defecto Flowise no requiere autenticación. Si lo expones en un servidor público sin contraseña, cualquiera puede usar tus flujos y consumir tus créditos de API.

Recursos gratuitos y comunidades para ir más allá del curso y mantenerte al día con DeepSeek y el ecosistema open-source de LLMs.

⚡ Atajos y comandos esenciales

  • ollama run deepseek-r1:7b — arranca el modelo directamente en terminal.
  • ollama list — muestra todos los modelos descargados en tu máquina.
  • ollama pull deepseek-r1:1.5b — descarga la versión más ligera para pruebas rápidas.
  • python -m venv venv && source venv/bin/activate (Linux/Mac) o venv\Scripts\activate (Windows) — activa el entorno virtual.
  • En LangChain: chain.invoke({"input": "tu consulta"}) — forma estándar de ejecutar una cadena.

?️ Herramientas gratuitas imprescindibles

  • Ollama (ollama.com) — ejecuta DeepSeek y otros LLMs en local sin coste.
  • LM Studio (lmstudio.ai) — interfaz visual para probar modelos locales sin código.
  • Flowise (flowiseai.com) — constructor visual de pipelines LLM, open-source y self-hosteable.
  • Open WebUI — interfaz tipo ChatGPT para Ollama, instalable con Docker en local.
  • LangSmith (smith.langchain.com) — traza y depura tus cadenas LangChain, tier gratuito disponible.

📖 Documentación y referencias clave

  • Documentación oficial de LangChain — python.langchain.com/docs
  • Hugging Face Hub — huggingface.co/deepseek-ai para descargar variantes del modelo.
  • DeepSeek API docs — platform.deepseek.com/docs
  • OpenRouter docs — openrouter.ai/docs (acceso unificado a DeepSeek y otros modelos).
  • Repositorio GitHub de Flowise — con ejemplos de RAG y agentes listos para usar.

👥 Comunidades activas

  • r/LocalLLaMA — la comunidad más activa sobre modelos open-source en local, incluyendo DeepSeek.
  • r/LangChain — preguntas y proyectos con LangChain y agentes.
  • Discord oficial de Flowise — soporte directo y ejemplos de la comunidad.
  • Discord de Hugging Face — debates sobre modelos open-source y fine-tuning.

📰 Newsletters para estar al día

  • The Rundown AI — resumen diario de novedades en IA, incluidos modelos open-source.
  • Ben's Bites — análisis de herramientas y tendencias de LLMs cada semana.

Preguntas frecuentes

📰Blog del curso

Artículos publicados sobre DeepSeek Domina la herramienta de cero a producción

31 ago 2025 DeepSeek y la Revolución de los Modelos de Lenguaje Open-Source

Modelos de lenguaje open-source

Por Ana Maria Gonzalez

DeepSeek y la Revolución de los Modelos de Lenguaje Open-Source

La inteligencia artificial avanza rápidamente, y los modelos de lenguaje open-source como DeepSeek-R1 y DeepSeek-V3 se consolidan como herramientas clave para profesionales y empresas que buscan soluciones eficientes, personalizables y escalables. Estas plataformas permiten procesar grandes volúmenes de información y generar resultados precisos sin depender de modelos propietarios como GPT-4o o Claude.

La adopción de DeepSeek facilita la automatización de tareas complejas, la generación de contenidos y la integración con aplicaciones web mediante APIs. Empresas tecnológicas y startups ya exploran estas herramientas para optimizar procesos internos, mejorar la experiencia del usuario y reducir costes operativos, mostrando que la IA open-source es hoy una ventaja competitiva tangible.

En la práctica, desarrolladores y científicos de datos utilizan DeepSeek para personalizar modelos mediante técnicas de fine-tuning y ajustar la inferencia para tareas específicas. Esto permite a las empresas ofrecer soluciones más precisas, como chatbots inteligentes, asistentes virtuales y análisis predictivos adaptados a sus necesidades, mejorando la eficiencia y la calidad de los servicios.

Además, la integración de DeepSeek con plataformas como Hugging Face, LangChain o Auto-GPT permite crear flujos de trabajo avanzados que combinan bases de datos externas y agentes autónomos. Esta tendencia de IA open-source en 2025 demuestra que la capacidad de personalización y escalabilidad ya no es exclusiva de grandes corporaciones, sino una oportunidad real para todo tipo de negocio.

Solicitar información

Respondemos en 3 hs. promedio


📰 Blog del curso


Glosario FUNDAE  —  Diccionario técnico de los 300 términos del sistema de formación bonificada Ver glosario →