Exploración de Notebooks en Microsoft Fabric

Publicado por Keyla Dolores en

¡Hola de nuevo! 🙂

En el capítulo anterior hablamos sobre los Apache Spark y qué podríamos configurar dentro de nuestra area de trabajo en Microsoft Fabric.

Entonces, ya teniendo esta información como introducción, el objetivo de hoy es que podamos hacer una exploración sobre cómo podemos trabajar con Notebooks y consultar o acceder a los datos que residen dentro del Lakehouse.

Cabe mencionar que dentro de los notebooks tu podrás trabajar en el lenguaje que se te sea mas familiar o que tengan como lineamiento en la empresa en la que trabajas. Entre ellos: PySpark, Scala, Spark SQL y R.

Para efectos de esta explicación, vamos a trabajar con PySpark y más nos vamos a enfocar en las opciones que tenemos en la interfaz y no tanto a desarrollar un caso de uso completo.

Creación de nuestro primer Notebook y conexión hacia datos del Lakehouse

Exploración de opciones disponibles en Fabric Notebooks

Leer datos de Lakehouse a través de un Notebook usando PySpark

Y hemos llegado a la parte final. Te sugiero puedas elaborar tus propios casos de uso para que te puedas familiarizar más con el lenguaje en caso no tengas mucha experiencia desarrollando en notebooks. Caso contrario, de seguro pudiste apreciar que la dinámica es bastante familiar a lo que ya se venía trabajando con anterioridad.

Nos vemos en un siguiente capítulo.

-Key


Keyla Dolores

Keyla es Data Architect y lleva más de 8 años en el mundo Microsoft. Administra esta página y un canal en YouTube (Keyla Dolores), donde crea y comparte contenido sobre temas de Microsoft Azure. Adicionalmente, podrán verla también en los diversos eventos nacionales o internacionales hablando de diferentes servicios de Azure Data Platform.

0 Comentarios

Deja una respuesta

Avatar placeholder

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *