Plateforme fédérale de données scientifiquesPlateforme fédérale de données scientifiques
  • English
  • Français
  • English
  • Français
  • Survol
  • Gérer les espaces de travail et les utilisateurs

    • Obtenir un espace de travail (uniquement disponible sur le réseau GC)
    • Estimer les coûts (uniquement disponible sur le réseau GC)
    • Configuration du compte
    • Demandez, configurez, et utilisez des outils dans votre espace de travail
    • Invitez un utilisateur
    • Modifier le rôle d'un utilisateur
    • Gérez vos budgets BOI et espaces de travail
  • Stockage

    • Travailler avec le stockage Azure
    • Apporter votre propre stockage

      • Importer du stockage AWS S3
      • Importer du stockage Azure
      • Importer un compte GCP
    • Accéder au stockage dans Databricks
    • Utiliser AzCopy pour intéragir avec le stockage
  • Databricks

    • Commencer avec Databricks sur le DataHub scientifique fédéral
    • Politiques des clusters sur Databricks
    • MLFlow : AutoML et expériences
    • Flux de travail sur Databricks
    • Tableau de bord

      • Comment créer un tableau de bord dans Databricks
      • Les tableaux de bord sur Databricks comparés à d'autres outils
    • Extensions externes

      • Intégration de Git/GitHub avec Databricks
      • Databricks VS Code Extension
      • Travailler avec Conda
      • Connexion de l'API Google à Databricks
  • PostgreSQL

    • Créer et utiliser une base de données PostgreSQL sur la PFDS
    • Ajouter un utilisateur de la PFDS à PostgreSQL
    • PostgreSQL vs Azure Databricks - Fonctionnalités des bases de données
  • Applications Web

    • Hébergement d'applications Web sur la PFDS
  • Migration vers production

    • Migration ou retrait du stockage
    • Migration ou retrait du Databricks
    • Migration ou retrait d'un base de données PostgreSQL
    • Migration ou retrait des applications web
  • Conseils aux utilisateurs

    • Code source
    • Contrôler l'utilisation
    • Contrôle et audit d'un espace de travail
    • Détection et réponse aux incidents
    • Gestion des comptes et contrôle d'accès aux espaces de travail
    • Github et gestion des dépôts de code
    • Sauvegarde et récupération
    • Types de fichiers restreints sur le stockage PFDS
  • Conditions générales

Databricks VS Code Extension

Grâce à l'extension Databricks VS Code, vous pouvez vous connecter à un espace de travail Databricks à partir de VS Code. Cela vous permet de :

  • Ecrivez votre code localement dans VS Code, puis exécutez-le à distance sur un cluster Databricks.
  • Exécuter des requêtes SQL sur un cluster Databricks et voir les résultats directement dans VS Code.
  • Gérer vos clusters Databricks.

Pourquoi l'utiliser ?

Visual Studio Code est un éditeur de code extrêmement populaire. En tant que système open source, il dispose d'une large communauté de contributeurs et d'utilisateurs. Il est également très extensible, ce qui permet aux utilisateurs d'installer une grande variété d'extensions pour prendre en charge différents langages de programmation, le débogage, etc.

Conditions préalables

  • Visual Studio Code.
  • Un espace de travail Databricks sur le DataHub scientifique fédéral.

Installer l'extension

  1. Ouvrez Visual Studio Code.
  2. Cliquez sur l'icône Extensions dans la barre de navigation de gauche.
  3. Recherchez Databricks.
  4. Cliquez sur Installer. L'extension correcte est indiquée dans la capture d'écran ci-dessous. Extension Databricks

Se connecter à un espace de travail Databricks

  1. Cliquez sur l'icône Databricks dans la barre de navigation de gauche.
  2. Cliquez sur Configurer.
  3. Entrez l'URL de votre espace de travail Databricks dans l'espace indiqué ci-dessous, jusqu'à .net/. Par exemple, si l'URL de votre espace de travail est https://sample.azuredatabricks.net/?o=111111111111#, entrez https://sample.azuredatabricks.net/. Extension Databricks
  4. Sur l'écran suivant, sélectionnez Editer les profils Databricks
  5. Dans l'écran qui s'ouvre, complétez les éléments suivants et enregistrez le fichier :
[PAR DÉFAUT]
hôte = https://sample.azuredatabricks.net/
token = votre_token
jobs-api-version = 2.1

[DEFAULT] est le nom du profil. Vous pouvez le modifier à votre guise. host est le même que celui que vous avez saisi à l'étape précédente. token est votre jeton d'accès personnel. Pour générer un jeton, voir Databricks personal access token authenticationjobs-api-version doit rester inchangé.

Après avoir effectué ces étapes, cliquez à nouveau sur Configurer et accédez à votre profil [DEFAULT] sauvegardé. Databricks se connectera automatiquement.

Exécuter le code local

NOTE: Vous devez ouvrir un dossier pour utiliser cette partie de l'extension. Pour ce faire, cliquez sur Fichier > Ouvrir un dossier et sélectionnez le dossier dans lequel vous conservez votre code.

Attacher un cluster

Avant d'exécuter le code, vous devez attacher un cluster.

  1. Ouvrez l'icône Databricks dans la barre de navigation de gauche.
  2. Si aucun cluster n'est attaché, survolez la barre Cluster et cliquez sur Configure Cluster, comme indiqué dans la capture d'écran ci-dessous. Extension Databricks
  3. Dans la liste déroulante, sélectionnez le cluster que vous souhaitez attacher, comme indiqué dans la capture d'écran ci-dessous. Extension Databricks
  4. Vous pouvez maintenant démarrer le cluster à partir de l'extension.

NOTE: Vous ne pouvez pas créer un cluster dans l'extension. Vous devez le créer dans Databricks lui-même.

Écrire votre code

N'importe quel fichier .py fonctionne, mais vous pouvez les formater pour tirer parti de la fonctionnalité notebook de Databricks.

Pour utiliser un notebook, ajoutez # Databricks notebook source au début de votre fichier .py. Cela indique à Databricks de traiter le fichier comme un notebook. Vous pouvez alors utiliser les commandes suivantes pour contrôler le notebook :

  • # COMMAND ---------- crée une nouvelle cellule.
  • # MAGIC %md crée une cellule markdown.
  • # MAGIC %sql crée une cellule SQL.
  • # MAGIC %scala crée une cellule Scala.
  • # MAGIC %r crée une cellule R.
  • # MAGIC %python crée une cellule Python.

NOTE: Vous devez vous assurer que toutes les bibliothèques que vous importez sont installées sur le cluster. Vous pouvez le faire en incluant la commande pip install dans votre code ou en installant les bibliothèques sur le cluster lui-même.

Exécuter du code local sur un cluster

  1. Ouvrez le menu Explorer dans la barre de navigation gauche.
  2. Naviguez jusqu'au fichier que vous souhaitez exécuter. Vous pouvez utiliser n'importe quel fichier que vous pouvez exécuter dans Databricks (R, Python, etc.).
  3. Assurez-vous que le cluster est démarré, puis faites un clic droit sur le fichier et sélectionnez Run File as Workflow in Databricks, comme indiqué dans la capture d'écran ci-dessous. Extension Databricks
  4. Le fichier sera exécuté sur le cluster. Vous pouvez voir les résultats dans la fenêtre Sortie. Extension Databricks

NOTE: Votre code sera copié dans Databricks sous le dossier .ide dans votre espace de travail.

Modifier cette page sur GitHub
Dernière mise à jour: 2026-04-13 11 h 39
Précédent
Intégration de Git/GitHub avec Databricks
Prochain
Travailler avec Conda