Apache Spark en Microsoft Fabric

Publicado por Keyla Dolores en

Es más que seguro que en pleno 2024 ya haz oído hablar sobre Apache Spark y en el mejor de los casos ya tienes experiencia utilizando este motor para procesamiento de datos a gran escala a través de alguna plataforma como Databricks, Azure Synapse, entre otros.

Así que -creo yo- que también era de esperarse que Microsoft Fabric lo incluya en sus áreas de trabajo para tareas de análisis, ingeniería y ciencia de datos.

Ahora, como cualquier solución de datos muchas veces es necesario que tengamos que trabajar procesando o interactuando con grandes volúmenes de información. Es por ello que, es importante conocer como podemos configurar o personalizar el cómputo u otros atributos asociados a Spark dentro de nuestra área de trabajo de Fabric.

Entonces, ¿Qué debemos conocer sobre el área de configuración de Spark?

Primero tenemos que saber donde podemos ver las configuraciones actuales y luego saber que significan cada una de ellas. Para ello, aquí te comparto una pequeña explicación:

Ya teniendo en claro estos conceptos, estamos listos para dar un vistazo a lo que podemos hacer con Spark dentro de Microsoft Fabric. Todo esto, en un siguiente capítulo.

Hasta la próxima!

-Key


Keyla Dolores

Keyla es Data Architect y lleva más de 8 años en el mundo Microsoft. Administra esta página y un canal en YouTube (Keyla Dolores), donde crea y comparte contenido sobre temas de Microsoft Azure. Adicionalmente, podrán verla también en los diversos eventos nacionales o internacionales hablando de diferentes servicios de Azure Data Platform.

0 Comentarios

Deja una respuesta

Avatar placeholder

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *