Connexion
14 133 Livres Blancs | 2 326 |

Snowpark : construire de meilleurs pipelines et modèles de données dans le data cloud

Snowflake a commencé son parcours vers le Data Cloud en réorganisant complètement le monde des données et en repensant la manière dont un système de traitement des données fiable, sécurisé, performant et élastique doit être bâti pour le cloud.

  • EditeurSnowflake
  • Version PDF - 14 pages - 2023 - Français
Livre blanc - Snowpark : construire de meilleurs pipelines et modèles de données dans le data cloud  - Snowflake

Introduction ou extrait du livre blanc

"Snowflake a commencé son parcours vers le Data Cloud en réorganisant complètement le monde des données et en repensant la manière dont un système de traitement des données fiable, sécurisé, performant et élastique doit être bâti pour le cloud.

Snowpark, un nouvel environnement de développement pour Snowflake, permet à tous les utilisateurs de données de centraliser leur travail dans le Data Cloud Snowflake avec une prise en charge native de Python, SQL, Java et Scala, comme le montre la figure

Snowpark permet aux data engineers, aux data scientists et aux développeurs d’écrire du code dans le langage de leur choix, et d’exécuter des pipelines, des opérations de ML et des applications de données plus rapidement et de manière plus sécurisée, sur une plateforme unique.

Grâce à Snowpark, les avantages de Snowflake ne se limitent plus aux seuls utilisateurs de SQL, mais bénéficient à l’ensemble de vos différentes équipes Data.

Les utilisateurs de Python, Java et Scala peuvent désormais exploiter les performances, l’élasticité et les capacités de gouvernance du moteur de traitement de Snowflake.

Les développeurs interagissent avec Snowflake via les trois composants principaux de Snowpark :

• Les API DataFrame Snowpark. Créez des requêtes à l’aide de DataFrames familiers à partir de l’interface utilisateur Snowflake (preview) ou de l’IDE de votre choix ; les processus push-down bénéficient des performances et de l’évolutivité du moteur de traitement élastique de Snowflake.

• Les UDF Snowpark. Exécutez votre logique personnalisée écrite en code natif Python ou Java directement dans Snowflake à l’aide de fonctions définies par l’utilisateur (UDF).

• Les procédures stockées. Opérationnalisez et orchestrez vos pipelines Python, Java ou Scala avec votre logique personnalisée directement dans Snowflake, puis mettez-les à la disposition de vos utilisateurs de SQL."

Pour recevoir ce livre blanc, merci de cliquer ci-dessous :

Obtenir le livre blanc