CURSO DP-750 IMPLEMENT DATA ENGINEERING SOLUTIONS USING AZURE DATABRICKS
Duración:
28 Hrs.
Próximo curso:
Modalidades:
- En Línea con instructor en vivo
- Aprendizaje Hibrido

Preparación para la certificación
• Examen DP-750 Implement data engineering solutions using Azure Databricks
• Certificación Lograda: Azure Databricks Data Engineer Associate
Beneficios

Diploma Oficial Microsoft

Link de Guía de Estudio Microsoft

Laboratorios Oficiales Microsoft

Garantía ExecuTrain

Acceso a las Grabaciones del Curso
Curso dirigido a:
El curso DP-750: Implementación de soluciones de ingeniería de datos con Azure Databricks está dirigido a ingenieros de datos, analistas técnicos, desarrolladores de soluciones de datos, especialistas en plataformas cloud y profesionales de TI que buscan diseñar, implementar y administrar soluciones de ingeniería de datos en Azure Databricks. Es ideal para quienes necesitan trabajar con arquitecturas Lakehouse, canalizaciones de datos, ingesta, transformación, seguridad, gobernanza y optimización de cargas de trabajo en entornos empresariales. También es una excelente opción para quienes desean prepararse para la certificación Microsoft Certified: Asociado de ingeniero de datos de Azure Databricks.
Requisitos previos:
Para aprovechar mejor este curso, se recomienda que los participantes cuenten con conocimientos previos en:
- Conceptos fundamentales de análisis de datos.
- Conceptos básicos de almacenamiento en la nube.
- Principios de organización de datos.
- Uso de SQL para consulta y manipulación de datos.
- Experiencia básica con Python, especialmente en tareas de ingeniería de datos.
- Uso de cuadernos o notebooks para trabajar con datos.
- Conocimientos generales de Azure Databricks, sus áreas de trabajo y Unity Catalog.
- Familiaridad con conceptos básicos de ingeniería de datos y almacenamiento de datos.
- Nociones de seguridad en Azure, incluyendo Microsoft Entra ID.
- Conocimientos básicos de Git para control de versiones.
C E R T I F I C A C I Ó N
Microsoft Certified
SQL AI Developer Associate
Curso de preparacion para obtener la Certificación.
¿Qué es Microsoft Certified: SQL AI Developer Associate?
Microsoft Certified: Azure Databricks Data Engineer Associate es una certificación de nivel intermedio dirigida a profesionales de ingeniería de datos que desean demostrar su capacidad para diseñar, implementar, proteger, optimizar y mantener soluciones de datos usando Azure Databricks. Esta credencial valida habilidades prácticas para trabajar con arquitecturas lakehouse, integración y modelado de datos, construcción de canalizaciones optimizadas, gobierno de datos con Unity Catalog y administración de cargas de trabajo en entornos empresariales.
Esta certificación está alineada con el curso DP-750: Implement data engineering solutions using Azure Databricks, el cual prepara al participante para desarrollar soluciones de ingeniería de datos de extremo a extremo, desde la configuración del entorno hasta la implementación de cargas de trabajo productivas, seguras y escalables con Azure Databricks y Unity Catalog.
Es importante considerar que el examen de certificación no está incluido en el curso; sin embargo, puede adquirirse por separado con ExecuTrain para que el participante pueda presentarlo y avanzar hacia la obtención de la certificación.
¿Qué se evalua para obtener esta certificación?
Para obtener la certificación, el candidato debe demostrar conocimientos y experiencia en el uso de Azure Databricks para integrar, modelar, transformar, gobernar y operar datos. Microsoft indica que el perfil del candidato debe contar con experiencia en SQL, Python, prácticas de ciclo de vida de desarrollo de software con Git, además de familiaridad con Microsoft Entra, Azure Data Factory y Azure Monitor.
Entre las principales habilidades que se evalúan se encuentran:
- Configuración de entornos de Azure Databricks, incluyendo la selección de recursos de cómputo, configuración de áreas de trabajo y preparación de la plataforma para cargas de ingeniería de datos.
- Seguridad y gobierno de datos con Unity Catalog, aplicando permisos, control de acceso, linaje, auditoría, calidad de datos y buenas prácticas de gobernanza empresarial.
- Ingesta, limpieza, transformación y modelado de datos, utilizando SQL, Python, notebooks, Spark, Lakeflow y técnicas para preparar datos confiables para análisis, inteligencia artificial y procesos operativos.
- Diseño e implementación de canalizaciones de datos, incluyendo orquestación, programación de trabajos, control de errores, automatización, despliegue y mantenimiento de cargas de trabajo.
- Optimización, monitoreo y solución de problemas, evaluando consumo de clústeres, rendimiento de trabajos Spark, alertas, registros y diagnóstico de cargas de trabajo en Azure Databricks.
- Aplicación de prácticas de desarrollo profesional, como control de versiones con Git, uso de Databricks Asset Bundles, pruebas e implementación en distintos entornos.
En conjunto, esta certificación valida que el profesional puede participar en proyectos reales de ingeniería de datos en la nube, colaborando con arquitectos, administradores, analistas y científicos de datos para construir soluciones modernas, seguras y escalables con Azure Databricks.
¿QUÉ APRENDERAS?
En este curso aprenderás a implementar soluciones de ingeniería de datos de extremo a extremo utilizando Azure Databricks, desde la comprensión de su arquitectura y configuración inicial, hasta el diseño de canalizaciones, gobierno de datos, seguridad, ingesta, transformación, calidad, monitoreo y optimización de cargas de trabajo. A través de laboratorios oficiales de Microsoft, los participantes desarrollarán habilidades prácticas para construir soluciones Lakehouse escalables, seguras y alineadas con escenarios empresariales reales.
Comprender el funcionamiento de Azure Databricks y su arquitectura
- Aprenderás los conceptos clave de Azure Databricks, sus principales cargas de trabajo, la separación entre plano de control y plano de proceso, así como las opciones de almacenamiento disponibles. Esto te permitirá entender cómo se estructura una plataforma moderna de análisis e ingeniería de datos en la nube.
-
Configurar recursos de cómputo para distintas cargas de trabajo
- Conocerás cómo seleccionar y configurar el tipo de cómputo adecuado según las necesidades del proyecto, ya sea mediante proceso sin servidor o proceso clásico. También aprenderás a optimizar clústeres, administrar permisos, instalar bibliotecas y equilibrar rendimiento, seguridad y costo.
-
Organizar y gobernar datos con Unity Catalog
- Aprenderás a crear y administrar catálogos, esquemas, tablas, vistas y volúmenes dentro de Unity Catalog. Esta estructura permite organizar los datos de forma clara, aplicar gobierno centralizado y facilitar la administración de recursos estructurados y no estructurados.
-
Proteger datos y administrar accesos en entornos empresariales
- El curso aborda estrategias de control de acceso, permisos granulares, filtrado de filas, enmascaramiento de columnas, autenticación con entidades de servicio e identidades administradas, así como acceso seguro a secretos mediante Azure Key Vault. Esto ayuda a proteger la información sensible y cumplir con requisitos de seguridad.
Diseñar modelos de datos eficientes para soluciones Lakehouse
- Aprenderás a definir lógica de ingesta, seleccionar herramientas y formatos de tabla, implementar particionamiento, administrar dimensiones de cambio lento, elegir la granularidad adecuada y aplicar estrategias de agrupación para mejorar el rendimiento y la mantenibilidad de las soluciones de datos.
Ingerir, limpiar, transformar y cargar datos en Unity Catalog
- Desarrollarás habilidades para cargar datos mediante Lakeflow Connect, notebooks, métodos SQL, fuentes CDC, Spark Structured Streaming, cargador automático y canalizaciones declarativas. También aprenderás a perfilar datos, resolver duplicados y valores nulos, aplicar filtros, agregaciones, uniones y estrategias de carga como anexión, sobrescritura y combinación.
Diseñar e implementar canalizaciones de datos confiables
- Aprenderás a construir canalizaciones de datos usando notebooks y Lakeflow Declarative Pipelines, incorporando orquestación, lógica de tareas, manejo de errores, programación de trabajos, alertas y reinicios automáticos. Esto permite automatizar procesos de datos de forma robusta y escalable.
Supervisar, solucionar problemas y optimizar cargas de trabajo
- Conocerás técnicas para monitorear el consumo de clústeres, diagnosticar trabajos de Spark y Lakeflow, analizar problemas de rendimiento, investigar almacenamiento en caché, sesgo, derrames y mezclas, además de implementar streaming de registros con Azure Log Analytics para mantener operaciones confiables y eficientes.
Modalidad en linea con instructor en vivo.
Interacción Personalizada:
- Enfoque Personalizado: Reciben atención personalizada y haz preguntas al instructor.
- Retroalimentación Instantánea: Tu profesor en vivo te proporcionará retroalimentación inmediata, lo que facilita la comprensión de conceptos y la corrección de errores.
Flexibilidad y Accesibilidad:
- Aprendizaje Remoto: Accede al curso desde cualquier lugar, eliminando la necesidad de desplazamientos y permitiendo una mayor flexibilidad en horarios.
- Grabaciones Disponibles: Las sesiones en vivo pueden ser grabadas, asi podrás revisar el material en cualquier momento.
Motivación y Compromiso:
- Participación Activa: La interacción en tiempo real fomenta la participación activa y el compromiso, creando una mayor conexion con el instructor y otros estudiantes.
- Sesiones Dinámicas: Discusiones en vivo, ejercicios prácticos y demostraciones mantienen tu interés a lo largo del curso.
Resolución Inmediata de Problemas:
- Asistencia Inmediata: Resuelve dudas y problemas de manera inmediata, evitando la espera entre la formulación de preguntas y la obtención de respuestas.
Modalidad de autoestudio con soporte de instructor .
En ExecuTrain el material y la metodología están diseñados por expertos en aprendizaje humano. Lo que te garantiza un mejor conocimiento en menor tiempo.
Módulos
Explorar Azure Databricks
Azure Databricks es un servicio en la nube que proporciona una plataforma escalable para el análisis de datos mediante Apache Spark.
Descripción de la arquitectura de Azure Databricks
La arquitectura de Azure Databricks separa el control y los planos de proceso al organizar los recursos a través de una estructura jerárquica. En este módulo se explora cómo funciona la jerarquía de cuentas, las diferencias entre los planos de proceso clásico y sin servidor, así como las distintas opciones de almacenamiento disponibles, incluido el almacenamiento predeterminado, el almacenamiento externo y el almacenamiento administrado del catálogo de Unity para organizar y gobernar los datos.
Descripción de las integraciones de Azure Databricks
Azure Databricks se integra con varios servicios de Microsoft para proporcionar funcionalidades de ingeniería, análisis e inteligencia artificial de un extremo a otro. En este módulo se explora cómo funciona Azure Databricks con Microsoft Fabric, Power BI, Visual Studio Code, Power Platform, Copilot Studio, Microsoft Purview y Microsoft Foundry para habilitar soluciones completas que combinan funcionalidades de data lakehouse con inteligencia empresarial, desarrollo de aplicaciones e inteligencia artificial conversacional.
Selecciona y configura recursos de cómputo en Azure Databricks
Azure Databricks proporciona varias opciones de proceso optimizadas para diferentes cargas de trabajo. En este módulo se explora cómo elegir el tipo de proceso adecuado, configurar las opciones de rendimiento, administrar permisos de acceso e instalar bibliotecas. Aprenderá a usar el proceso sin servidor frente al proceso clásico, cómo optimizar los clústeres para el costo y el rendimiento, y los procedimientos recomendados para proteger los recursos de proceso.
Creación y organización de objetos en el catálogo de Unity
El espacio de nombres de tres capas de Unity Catalog (catálogos, esquemas y objetos) proporciona una base flexible para organizar los recursos de datos al tiempo que mantiene una gobernanza centralizada. En este módulo se explora cómo crear catálogos para el aislamiento del entorno, organizar esquemas dentro de esos catálogos y crear tablas, vistas y volúmenes para datos estructurados y no estructurados. Aprenderá a implementar catálogos externos para el acceso a bases de datos externas, aplicar convenciones de nomenclatura eficaces y configurar instrucciones de AI/BI Genie para mejorar la detectabilidad de los datos.
Proteger objetos de catálogo de Unity
El catálogo de Unity proporciona gobernanza y seguridad centralizadas para los recursos de datos en Azure Databricks. En este módulo se explora cómo proteger objetos de Catálogo de Unity mediante estrategias de control de acceso, permisos específicos, administración de credenciales y mecanismos de autenticación. Aprenderá a implementar la seguridad de tabla y de nivel de esquema, aplicar el filtrado de filas y columnas, acceder de forma segura a secretos desde Azure Key Vault y autenticar el acceso a datos mediante entidades de servicio e identidades administradas.
Controlar objetos de catálogo de Unity
En este módulo se tratan los procedimientos de gobernanza esenciales en el Catálogo de Unity, lo que le permite proteger, supervisar y administrar el patrimonio de datos de forma eficaz. Aprenderá a implementar un control de acceso específico, realizar un seguimiento del linaje de datos, configurar registros de auditoría y compartir datos de forma segura.
Diseño e implementación del modelado de datos con Azure Databricks
El modelado de datos efectivo forma la base de una plataforma de datos eficaz y fácil de mantener. En este módulo se explora cómo diseñar lógica de ingesta, seleccionar las herramientas adecuadas y los formatos de tabla, implementar esquemas de creación de particiones, administrar dimensiones que cambian lentamente, elegir la granularidad de datos adecuada y optimizar el rendimiento de las tablas mediante estrategias de agrupación en clústeres en Azure Databricks con Unity Catalog.
Ingesta de datos en el catálogo de Unity
La ingesta de datos es una funcionalidad fundamental para cualquier plataforma de datos. En este módulo se explora el conjunto completo de técnicas disponibles en Azure Databricks para cargar datos en tablas de Catálogo de Unity. Aprenderá a usar conectores administrados con Lakeflow Connect, escribir código de ingesta personalizado en cuadernos, aplicar comandos SQL para la carga de archivos por lotes, procesar fuentes de captura de datos modificados, configurar la ingesta de streaming desde buses de mensajes, configurar el cargador automático para la detección automática de archivos y orquestar flujos de trabajo de ingesta con canalizaciones declarativas de Spark de Lakeflow.
Limpieza, transformación y carga de datos en el catálogo de Unity
La ingeniería de datos requiere transformar los datos sin procesar en formatos limpios y bien estructurados listos para el análisis. En este módulo se exploran técnicas para el perfilado de la calidad de los datos, la selección de tipos de columna adecuados, la resolución de duplicados y valores NULL, la aplicación de transformaciones de filtrado y agregación, la combinación de conjuntos de datos con uniones y operadores de conjuntos, el volver a dar forma a los datos mediante pivotación y desnormalización, y la carga de datos transformados mediante estrategias de apéndice, sobrescritura y combinación.
Implementación y administración de restricciones de calidad de datos con Azure Databricks
En este módulo se exploran las estrategias para mantener una alta calidad de datos en Azure Databricks. Aprenderá a implementar comprobaciones de validación, aplicar esquemas, administrar el desfase de esquema y usar expectativas de canalización para garantizar la integridad de los datos en todas las canalizaciones de datos.
Diseño e implementación de canalizaciones de datos con Azure Databricks
Aprenda a diseñar e implementar canalizaciones de datos sólidas en Azure Databricks mediante cuadernos y canalizaciones declarativas de Spark de Lakeflow, que incluyen orquestación, control de errores y lógica de tareas.
Implementación de trabajos de Lakeflow con Azure Databricks
Este módulo le guía por el proceso de implementación de trabajos de Lakeflow en Azure Databricks. Aprenderá a crear trabajos, configurar desencadenadores y programaciones, configurar alertas y administrar reinicios automáticos para garantizar la ejecución confiable de la canalización de datos.
Implementación de procesos de ciclo de vida de desarrollo en Azure Databricks
Azure Databricks se integra con los procedimientos de desarrollo establecidos a través de carpetas de Git para el control de versiones y Databricks Asset Bundles para implementaciones de infraestructura como código. En este módulo se exploran las mejores prácticas de control de versiones con Git, los flujos de trabajo de bifurcación y solicitudes de incorporación de cambios, las estrategias de prueba exhaustivas y la implementación de paquetes mediante la CLI en distintos entornos.
Supervisión, solución de problemas y optimización de cargas de trabajo en Azure Databricks
La supervisión y la optimización son esenciales para ejecutar cargas de trabajo de datos confiables y rentables en Azure Databricks. En este módulo se exploran las métricas de consumo de clúster, la solución de problemas de trabajos de Lakeflow, el diagnóstico de trabajos de Spark, la optimización del rendimiento para el almacenamiento en caché, el sesgo, el desbordamiento y los problemas aleatorios, y el streaming de registros a Azure Log Analytics.
T e s t i m o n i o s
¿Qué opinan nuestros alumnos de este curso?
¡Prepárate para ser inspirado por historias reales de éxito y crecimiento profesional!
Preguntas Frecuentes FAQs
¿Qué es el curso DP-750 de Microsoft?
-
El curso DP-750: Implementación de soluciones de ingeniería de datos con Azure Databricks es un entrenamiento oficial de Microsoft enfocado en desarrollar habilidades prácticas para diseñar, implementar, proteger, gobernar, monitorear y optimizar soluciones de ingeniería de datos con Azure Databricks, Unity Catalog, arquitecturas Lakehouse, canalizaciones de datos y cargas de trabajo empresariales en la nube.
¿Cuál es el objetivo principal del curso DP-750?
-
El objetivo principal es que el participante aprenda a implementar soluciones de ingeniería de datos de extremo a extremo con Azure Databricks, desde la configuración del entorno y recursos de cómputo, hasta la ingesta, transformación, calidad, seguridad, gobierno, automatización y optimización de datos para escenarios empresariales.
¿A quién está dirigido el curso DP-750?
-
Está dirigido a ingenieros de datos, desarrolladores de soluciones de datos, analistas técnicos, especialistas en plataformas cloud, arquitectos de datos y profesionales de TI que trabajan o desean trabajar con soluciones de datos en Azure Databricks. También es recomendable para quienes buscan prepararse para la certificación Microsoft Certified: Azure Databricks Data Engineer Associate.
¿Qué conocimientos previos necesito para tomar este curso?
-
Se recomienda contar con conocimientos fundamentales de análisis de datos, almacenamiento en la nube, organización de datos y SQL. También es conveniente tener experiencia básica con Python, uso de notebooks, conceptos de ingeniería de datos, nociones de seguridad en Azure, Microsoft Entra ID y control de versiones con Git.
¿El curso DP-750 tiene certificación relacionada?
-
Sí. Este curso está relacionado con la certificación Microsoft Certified: Azure Databricks Data Engineer Associate, una credencial que valida habilidades para implementar soluciones de ingeniería de datos usando Azure Databricks, Unity Catalog, canalizaciones, seguridad, gobierno y optimización de cargas de trabajo.
¿El examen de certificación está incluido en el curso?
-
No. El examen de certificación no está incluido en el precio del curso. Sin embargo, los participantes pueden adquirir el examen con ExecuTrain para presentarlo y avanzar hacia la obtención de la certificación Microsoft Certified: Azure Databricks Data Engineer Associate.
¿El curso incluye laboratorios oficiales de Microsoft?
-
Sí. El curso incluye laboratorios oficiales de Microsoft, diseñados para reforzar los temas vistos durante la capacitación. Estos laboratorios permiten practicar con escenarios guiados sin que la empresa o el participante necesiten contar con licencias propias para realizar las prácticas.
¿Los laboratorios del curso se pueden adaptar a las necesidades de mi empresa?
-
No. Al tratarse de laboratorios oficiales de Microsoft, no se pueden personalizar o adaptar a procesos específicos de cada empresa. Su principal beneficio es que ya están diseñados para cubrir los objetivos del curso y permiten practicar sin requerir licencias adicionales por parte del participante.
¿Cuál es la duración del curso DP-750?
-
El curso tiene una duración de 28 horas, durante las cuales se cubren temas como arquitectura de Azure Databricks, Unity Catalog, seguridad, gobierno de datos, ingesta, transformación, calidad de datos, canalizaciones, trabajos de Lakeflow, ciclo de vida de desarrollo, monitoreo y optimización.
¿En qué modalidades se puede tomar el curso?
-
El curso puede tomarse en línea con instructor en vivo para grupos privados desde 3 personas. También está disponible en modalidad de autoestudio con soporte de instructor, con acceso a plataforma 24/7 durante 2 meses y sesiones semanales en vivo para resolver dudas con un instructor.
¿Qué es Azure Databricks y por qué es importante para la ingeniería de datos?
-
Azure Databricks es una plataforma de análisis e ingeniería de datos basada en Apache Spark que permite procesar, transformar, gobernar y analizar grandes volúmenes de datos en la nube. Es importante porque ayuda a las organizaciones a construir arquitecturas Lakehouse modernas, combinar datos estructurados y no estructurados, y preparar información confiable para análisis, inteligencia artificial y toma de decisiones.
¿Qué es Unity Catalog dentro de Azure Databricks?
-
Unity Catalog es una solución de gobierno de datos centralizada dentro de Azure Databricks que permite administrar catálogos, esquemas, tablas, vistas, volúmenes, permisos, linaje, auditoría y políticas de acceso. En el curso se aprende a utilizarlo para organizar, proteger y gobernar los datos de manera empresarial.
¿Qué tipo de habilidades prácticas desarrollaré en este curso?
-
Aprenderás a configurar recursos de cómputo, crear objetos en Unity Catalog, proteger datos, implementar control de acceso, diseñar modelos de datos, ingerir información desde distintas fuentes, limpiar y transformar datos, construir canalizaciones, programar trabajos, aplicar calidad de datos, monitorear cargas de trabajo y optimizar el rendimiento en Azure Databricks.
¿Este curso ayuda a prepararme para proyectos reales de datos en la nube?
-
Sí. El curso está diseñado para desarrollar habilidades aplicables en proyectos reales de ingeniería de datos, especialmente en empresas que necesitan construir soluciones escalables, seguras y gobernadas sobre Azure Databricks. Los temas cubren desde la configuración inicial hasta la operación y optimización de cargas de trabajo productivas.
¿Por qué tomar el curso DP-750 en una empresa de capacitación especializada?
Invierte en tu FUTURO
¿Por qué aprender a Implementar Soluciones de Ingeniería de Datos utilizando Azure Databricks?
Implementar soluciones de ingeniería de datos con Azure Databricks permite a las empresas construir plataformas modernas, escalables y seguras para integrar, transformar, gobernar y analizar grandes volúmenes de información. En un entorno donde los datos provienen de múltiples sistemas, aplicaciones y fuentes en la nube, Azure Databricks facilita la creación de arquitecturas Lakehouse, canalizaciones automatizadas y modelos de datos confiables que impulsan la analítica avanzada, la inteligencia artificial y la toma de decisiones basada en datos.
1. Permite construir arquitecturas de datos modernas y escalables
Azure Databricks ayuda a centralizar datos estructurados, semiestructurados y no estructurados en una arquitectura Lakehouse, combinando la flexibilidad de un data lake con capacidades avanzadas de administración, procesamiento y consulta. Esto permite que las organizaciones trabajen con grandes volúmenes de datos sin perder rendimiento, trazabilidad ni control operativo.
2. Mejora la seguridad, el gobierno y la calidad de los datos
A través de herramientas como Unity Catalog, Azure Databricks permite administrar permisos, linaje, auditoría, control de acceso granular, políticas de seguridad y calidad de datos. Esto es clave para empresas que necesitan proteger información sensible, cumplir con requisitos internos o regulatorios y garantizar que los datos utilizados para reportes, análisis e inteligencia artificial sean confiables.
3. Acelera la automatización de procesos de datos e inteligencia artificial
¿Deseas conocer más acerca de nuestros servicios?
En Executrain contamos con las mejores opciones para tu crecimiento profesional.
Impulsa la ingeniería de datos moderna con Azure Databricks
Las empresas que invierten en la capacitación de sus equipos de datos fortalecen su capacidad para transformar información dispersa en soluciones confiables, seguras y escalables. Formar a ingenieros de datos, analistas técnicos y profesionales de TI en Azure Databricks permite acelerar proyectos de analítica, mejorar la calidad y gobierno de los datos, automatizar procesos críticos y preparar la organización para iniciativas de inteligencia artificial, modelos predictivos y toma de decisiones basada en datos.
Capacita a tu equipo en DP-750: Implementación de soluciones de ingeniería de datos con Azure Databricks y comienza a construir soluciones Lakehouse listas para los retos actuales de tu empresa.
V E R C U R S O S R E L A C I O N A D O S
Curso 55317 Querying Data with Transact – SQL
Curso 55353 Administering a SQL Database Infrastructure
Curso DP-080 Query and modify data with Transact-SQL
Curso AI-300: Operationalize Machine Learning and Generative AI Solutions
El curso AI-300: Operationalize Machine Learning and Generative AI Solutions está diseñado para profesionales que buscan llevar la inteligencia artificial más allá de la experimentación y convertirla en soluciones reales, escalables y listas para producción en Azure































