Exploración de Notebooks en Microsoft Fabric
¡Hola de nuevo! 🙂
En el capítulo anterior hablamos sobre los Apache Spark y qué podríamos configurar dentro de nuestra area de trabajo en Microsoft Fabric.
Entonces, ya teniendo esta información como introducción, el objetivo de hoy es que podamos hacer una exploración sobre cómo podemos trabajar con Notebooks y consultar o acceder a los datos que residen dentro del Lakehouse.
Cabe mencionar que dentro de los notebooks tu podrás trabajar en el lenguaje que se te sea mas familiar o que tengan como lineamiento en la empresa en la que trabajas. Entre ellos: PySpark, Scala, Spark SQL y R.
Para efectos de esta explicación, vamos a trabajar con PySpark y más nos vamos a enfocar en las opciones que tenemos en la interfaz y no tanto a desarrollar un caso de uso completo.
Creación de nuestro primer Notebook y conexión hacia datos del Lakehouse
Exploración de opciones disponibles en Fabric Notebooks
Leer datos de Lakehouse a través de un Notebook usando PySpark
Y hemos llegado a la parte final. Te sugiero puedas elaborar tus propios casos de uso para que te puedas familiarizar más con el lenguaje en caso no tengas mucha experiencia desarrollando en notebooks. Caso contrario, de seguro pudiste apreciar que la dinámica es bastante familiar a lo que ya se venía trabajando con anterioridad.
Nos vemos en un siguiente capítulo.
-Key
0 Comentarios