Formación bonificada para empresas

Diploma emitido por FUNDAE


Ejemplo de diploma acreditativo FUNDAE + Ampliar

i ¿Quiénes somos?
Valore esta página: Votos: 3.9/5 (140 votos)


Curso online de IA Generativa con Python Hugging Face y Transformers fácil bonificado

Cursos bonificados Calendario: Flexible.

FUNDAE cursos Fecha disponible: Inmediata.

Cursos bonificados seguridad social Porcentaje de Bonificación: 100%

Cursos online bonificados Diploma acreditativo emitido por FUNDAE.

Cursos bonificados para empresas Certificado acreditativo para concursos y oposiciones.

cursos virtuales bonificados Temario Personalizado.

FUNDAE cursos Modalidades: teleformación, aula virtual y MIXTA

Curso online de IA Generativa con Python Hugging Face y Transformers fácil

La inteligencia artificial impulsa 180.000 nuevos empleos tecnológicos en España

85%
Incremento demanda IA (SEPE, 2024)
52.000€
Salario medio especialista (INE, 2023)

El curso

📊 ¿Por qué este curso?
4 de cada 5
empresas tech requieren especialistas en IA generativa y Transformers
Fuente: Stack Overflow · 2024
Plan de Igualdad Empresas Duración
La duración del curso de IA Generativa con Python Hugging Face y Transformers fácil es de 50 horas, acreditadas en el Diploma del mismo.

PLAZO DE REALIZACIÓN:

El plazo se puede establecer según las necesidades del alumno o del plan de formación de la empresa.
empresas de cursos bonificados

Objetivos

  • Comprender los fundamentos de los modelos Transformers y el mecanismo de atencion en inteligencia artificial generativa
  • Utilizar la plataforma Hugging Face y Python para acceder y desplegar modelos de IA de vanguardia
  • Aplicar tecnicas de evaluacion y ajuste de modelos generativos para proyectos empresariales reales
  • Implementar soluciones de IA generativa adaptadas a necesidades especificas en clasificacion de documentos y generacion de contenido
  • Desarrollar competencias profesionales en inteligencia artificial moderna para roles de especialista en IA


Bonificación Bonificación Curso bonificable al 100%
Bonificacion

Bonificación

Este curso puede ser bonificado al 100% para la empresa receptora, incluso aunque esta tenga un porcentaje de copago en razón de su número de empleados en plantilla. El coste de la formación se recuperará mediante descuento en el pago de los seguros sociales.
Este descuento será aplicable libremente en cualquier mes del año posterior a la fecha en que haya finalizado la formación. Podrán bonificarse las matrículas de aquellos alumnos que realicen al menos el 75% del curso con éxito.
Modalidades Modalidades Teleformación · Aula virtual · Mixta · Presencial
Modalidades

Modalidades

EN CURSOS ONLINE
Teleformación: En esta modalidad todo el curso se realiza a través de internet, con acceso las 24 hs. todos los días de la semana y plazo máximo de seis meses. No hay actividades como clases a las que el alumno deba asistir en horarios y fechas programados.
Aula virtual: En esta modalidad la formación se imparte mediante clases en directo a través de internet, es decir clases tele-presenciales, que se llevarán a cabo a través de ZOOM, Skype u otra herramienta a convenir.
Modalidad MIXTA: Combinación de las dos modalidades anteriores. Los trabajadores asisten a clases en directo (por ejemplo una a la semana) y entre clases disponen de material para avanzar en el curso en la plataforma. Es la más completa para grupos de trabajadores que realizan un mismo curso.

EN CURSOS PRESENCIALES o SEMI - PRESENCIALES
En esta modalidad los trabajadores realizan el curso asistiendo físicamente a un aula en la que se imparte la formación. Puede ser complementada igualmente con acceso a una plataforma online entre clases. Para esta modalidad se requiere una consulta previa de disponibilidad en la ciudad donde se desee llevar a cabo.

cursos tripartita

Temario


NOTA:

Trabajamos con la metodologia de curso personalizado, creada por Ciberaula en 1997. Usted puede solicitar un curso a la medida de sus objetivos, que combine lecciones de 2 o mas cursos en un plan de formacion a su medida. Si este es su caso consultenos, esta metodologia ofrece un aprovechamiento maximo de la formacion en los cursos bonificados para trabajadores.

El temario predefinido del curso online de IA Generativa con Python Hugging Face y Transformers fácil es el siguiente:

1 Introducción

1.1 Introducción

2 Hugging Face

2.1 Hugging Face

3 IA Generativa

3.1 IA Generativa

4 Transformers

4.1 Transformes y el mecanismo de atención - Parte I

4.2 Transformers y el mecanismo de atención - Parte 2

4.3 Transformers y el mecanismo de atención - Parte 3

4.4 Transformers y el mecanismo de atención - Parte 4

5 Evaluación de modelos IA

5.1 Evaluación de modelos IA

6 Pipelines

6.1 Pipelines

7 Aplicaciones prácticas de IA usando texto

7.1 Clasificación de Texto

7.2 Responder preguntas

7.3 Traducir Texto

7.4 Generación de Texto

8 Aplicaciones prácticas con imagen, video y audio

8.1 Generación de imágenes

8.2 Generación de Video

8.3 Generación de audio

9 Fine Tuning

9.1 Fine Tuning para generación de Texto


Todo lo que necesitas saber antes de empezar

Información práctica — pulsa cada sección para desplegarla

💻 Software

  • Python 3.13 (python.org — gratuito). Usa el instalador oficial y marca «Add to PATH».
  • VS Code con extensiones Python y Jupyter (gratuito). Alternativa: PyCharm Community Edition (gratuita).
  • pip y virtualenv o venv (incluidos con Python).
  • Jupyter Notebook o JupyterLab: pip install jupyterlab — gratuito.
  • Librería Transformers de Hugging Face: pip install transformers — gratuita.
  • PyTorch (cpu-only): pip install torch --index-url https://download.pytorch.org/whl/cpu — gratuito, sin necesidad de GPU.

?️ Hardware

  • PC o portátil de los últimos 5-6 años con 8 GB de RAM (suficiente para modelos pequeños y medianos en CPU).
  • Procesador de doble núcleo o superior (cualquier Intel Core i3/Ryzen 3 reciente vale).
  • 10-15 GB de espacio libre en disco para modelos y entornos virtuales.
  • Alternativa a hardware potente: Google Colab (gratuito) ofrece GPU en la nube; puedes hacer el 100 % del curso sin GPU local.

🔑 Cuentas

  • Cuenta en Hugging Face (huggingface.co — gratuita). Necesaria para descargar modelos y usar la API.
  • Cuenta de Google para Google Colab si no tienes GPU local (gratuita).
  • GitHub (gratuito) para guardar y versionar tus proyectos.
⚠️ Algunos modelos grandes (>7B parámetros) requieren aceptar términos de licencia en Hugging Face y pueden tardar varios minutos en descargarse. El curso trabaja con modelos ligeros que funcionan en CPU.

📚 Conocimientos previos

  • Python básico: variables, funciones, listas y bucles. Si nunca has programado, repasa primero un curso de Python básico.
  • No se requiere experiencia previa en IA ni en redes neuronales.
  • Saber instalar paquetes con pip y abrir una terminal es suficiente.

A lo largo del curso construyes aplicaciones reales con Hugging Face y Python. Estos son los proyectos principales que desarrollarás:

  1. Clasificador de sentimientos para reseñas de productos: usa un pipeline de clasificación de texto para analizar automáticamente si las opiniones de clientes son positivas o negativas. Caso de uso: e-commerce o atención al cliente.
  2. Sistema de preguntas y respuestas sobre documentos propios: carga un texto (contrato, manual técnico) y construye un QA-bot que responde preguntas en lenguaje natural. Caso de uso: soporte interno en empresa.
  3. Traductor automático de párrafos: pipeline de traducción entre idiomas con un modelo de Hugging Face. Caso de uso: internacionalización de contenidos web o documentación técnica.
  4. Generador de texto con prompt personalizado: configura parámetros de temperatura y longitud para generar descripciones de producto, resúmenes o emails. Caso de uso: marketing y redacción asistida.
  5. Generación de imágenes con Stable Diffusion ligero: crea imágenes a partir de texto usando un modelo compacto o Google Colab. Caso de uso: prototipado visual rápido para diseñadores o creativos.
  6. Fine-tuning de un modelo de generación de texto: ajusta un modelo preentrenado con un dataset pequeño y propio para adaptarlo a un dominio específico (p. ej., respuestas en tono corporativo). Caso de uso: chatbots especializados en sector legal, médico o educativo.
¿Estás listo para este curso de IA Generativa con Python?
5 preguntas rápidas para saber si tu base de Python e IA es suficiente para aprovechar el curso. Sin trampa: responde lo que sabes hoy, no lo que crees que deberías saber.
1 ¿Qué hace este código Python? `lista = [1,2,3]; resultado = [x*2 for x in lista]`
2 ¿Para qué sirve crear un entorno virtual (venv) antes de instalar librerías en Python?
3 ¿Qué es un modelo Transformer en el contexto de la IA?
4 Quieres instalar la librería `transformers` de Hugging Face en tu proyecto. ¿Qué comando usas?
5 ¿Qué diferencia hay entre entrenar un modelo desde cero y hacer fine-tuning?

Estos son los tropiezos más frecuentes al empezar con Hugging Face y Transformers en Python. Conocerlos de antemano te ahorra horas de depuración:

  • No activar el entorno virtual antes de instalar librerías: instalas transformers a nivel global y luego el proyecto no encuentra el paquete o hay conflictos de versiones. Activa siempre el venv primero.
  • Mezclar versiones incompatibles de PyTorch y Transformers: instalar la última versión de ambos sin comprobar compatibilidad provoca errores crípticos al cargar modelos. Consulta la tabla de compatibilidad en la documentación oficial.
  • Descargar modelos gigantes sin necesitarlos: cargar modelos de 7B+ parámetros en una CPU con 8 GB de RAM bloquea el sistema. Empieza siempre con modelos ligeros (distilbert, gpt2, t5-small) hasta que necesites más potencia.
  • No reutilizar el modelo cargado en memoria: llamar a pipeline() dentro de un bucle recarga el modelo en cada iteración. Cárgalo una sola vez fuera del bucle.
  • Subir el token de Hugging Face al repositorio de GitHub: poner el token directamente en el código y hacer commit expone tus credenciales. Usa variables de entorno o un archivo .env excluido con .gitignore.
  • Ignorar el parámetro truncation=True en tokenización: los modelos tienen longitud máxima de secuencia; no truncar provoca errores de dimensión o resultados incorrectos silenciosos.
  • Confundir fine-tuning con inferencia: muchos alumnos ejecutan el bucle de entrenamiento para hacer una simple predicción, consumiendo recursos innecesarios. Para inferencia usa pipeline() o model.eval().
  • No usar device_map="auto" ni especificar dispositivo: en máquinas sin GPU el modelo puede intentar usar CUDA y fallar. Fuerza CPU con device=-1 en el pipeline si no tienes GPU disponible.
  • Esperar resultados inmediatos en fine-tuning con pocos datos: entrenar con 50 ejemplos y esperar precisión alta no es realista. El fine-tuning requiere al menos varios cientos de ejemplos bien etiquetados para notar mejora real.

Recursos gratuitos y herramientas que complementan el curso y te acompañarán mucho después de terminarlo:

⚡ Atajos y referencias rápidas

  • devhints.io/python: cheat sheet de Python con sintaxis y estructuras de datos al instante.
  • Hugging Face Docs — Quick Tour (huggingface.co/docs/transformers/quicktour): la referencia más práctica para pipelines y modelos.
  • overapi.com/python: listado visual de métodos y funciones de Python.

?️ Herramientas gratuitas esenciales

  • Google Colab (colab.research.google.com): GPU gratuita en la nube, ideal para fine-tuning sin hardware potente.
  • Hugging Face Spaces (huggingface.co/spaces): despliega tus demos de IA gratis con Gradio o Streamlit.
  • Gradio (pip install gradio): crea interfaces web para tus modelos en 5 líneas de código.
  • gitignore.io: genera automáticamente el .gitignore correcto para proyectos Python.

📖 Documentación oficial imprescindible

  • docs.python.org/3: referencia oficial de Python 3.13.
  • huggingface.co/docs: documentación completa de Transformers, Datasets, Tokenizers y PEFT (fine-tuning eficiente).
  • pytorch.org/docs: cuando necesites entender qué hay debajo del pipeline.

👥 Comunidades donde resolver dudas

  • Hugging Face Forums (discuss.huggingface.co): la comunidad oficial; aquí están los propios ingenieros de HF.
  • r/MachineLearning y r/learnmachinelearning en Reddit: buenas discusiones y recursos para todos los niveles.
  • Stack Overflow con tags huggingface-transformers y python: resuelve errores concretos.
  • dev.to: artículos prácticos de la comunidad sobre proyectos reales con Hugging Face.

🤖 IA como tutor de código

  • GitHub Copilot (plan gratuito para estudiantes): autocompleta código y explica funciones de Transformers directamente en VS Code.
  • ChatGPT o Claude: pídeles que expliquen errores de stack trace o que generen ejemplos de uso de cualquier clase de la librería. Son especialmente útiles para entender la API de Hugging Face.

Preguntas frecuentes

📰Blog del curso

Artículos publicados sobre IA Generativa con Python Hugging Face y Transformers fácil

19 sept 2025 IA Generativa y Transformers: el nuevo motor de innovación en 2025

IA Generativa con Python y Hugging Face

Por Ana Maria Gonzalez

IA Generativa y Transformers: el nuevo motor de innovación en 2025

La IA generativa se ha consolidado en 2025 como una de las tecnologías más influyentes para empresas y profesionales de todo el mundo. Con el apoyo de plataformas como Hugging Face y librerías de Transformers, es posible crear modelos capaces de generar texto, imágenes y datos sintéticos que agilizan procesos y ofrecen nuevas formas de innovación en sectores tan diversos como la educación, la salud y el marketing.

Uno de los mayores beneficios de esta tecnología es la democratización del acceso. Gracias a entornos como Google Colab, cualquier persona con conexión a internet puede entrenar y personalizar modelos avanzados sin necesidad de infraestructuras costosas. Esta accesibilidad ha permitido que pymes, startups y profesionales independientes adopten la IA generativa como una herramienta competitiva en sus proyectos.

En el ámbito empresarial, los modelos de lenguaje basados en Transformers ya están siendo aplicados en atención al cliente, automatización de reportes y creación de contenido. Grandes compañías tecnológicas han marcado el camino, pero cada vez más empresas medianas aprovechan estas soluciones para optimizar costes y mejorar la productividad.

El impacto de la IA generativa también se percibe en la forma de trabajar. Profesionales de sectores no técnicos, como el periodismo o la investigación, utilizan modelos preentrenados para procesar información de manera más rápida y precisa. Esta tendencia refleja un futuro en el que las habilidades en Python y el manejo de Hugging Face se convierten en competencias esenciales para enfrentar los retos de la transformación digital.

Solicitar información

Respondemos en 3 hs. promedio


📰 Blog del curso


Glosario FUNDAE  —  Diccionario técnico de los 300 términos del sistema de formación bonificada Ver glosario →