Plateforme fédérale de données scientifiquesPlateforme fédérale de données scientifiques
  • English
  • Français
  • English
  • Français
  • Survol
  • Gérer les espaces de travail et les utilisateurs

    • Obtenir un espace de travail (uniquement disponible sur le réseau GC)
    • Estimer les coûts (uniquement disponible sur le réseau GC)
    • Configuration du compte
    • Demandez, configurez, et utilisez des outils dans votre espace de travail
    • Invitez un utilisateur
    • Modifier le rôle d'un utilisateur
    • Gérez vos budgets BOI et espaces de travail
  • Stockage

    • Travailler avec le stockage Azure
    • Apporter votre propre stockage

      • Importer du stockage AWS S3
      • Importer du stockage Azure
      • Importer un compte GCP
    • Accéder au stockage dans Databricks
    • Utiliser AzCopy pour intéragir avec le stockage
  • Databricks

    • Commencer avec Databricks sur le DataHub scientifique fédéral
    • Politiques des clusters sur Databricks
    • MLFlow : AutoML et expériences
    • Flux de travail sur Databricks
    • Tableau de bord

      • Comment créer un tableau de bord dans Databricks
      • Les tableaux de bord sur Databricks comparés à d'autres outils
    • Extensions externes

      • Intégration de Git/GitHub avec Databricks
      • Databricks VS Code Extension
      • Travailler avec Conda
      • Connexion de l'API Google à Databricks
  • PostgreSQL

    • Créer et utiliser une base de données PostgreSQL sur la PFDS
    • Ajouter un utilisateur de la PFDS à PostgreSQL
    • PostgreSQL vs Azure Databricks - Fonctionnalités des bases de données
  • Applications Web

    • Hébergement d'applications Web sur la PFDS
  • Migration vers production

    • Migration ou retrait du stockage
    • Migration ou retrait du Databricks
    • Migration ou retrait d'un base de données PostgreSQL
    • Migration ou retrait des applications web
  • Conseils aux utilisateurs

    • Code source
    • Contrôler l'utilisation
    • Contrôle et audit d'un espace de travail
    • Détection et réponse aux incidents
    • Gestion des comptes et contrôle d'accès aux espaces de travail
    • Github et gestion des dépôts de code
    • Sauvegarde et récupération
    • Types de fichiers restreints sur le stockage PFDS
  • Conditions générales

Importer un compte GCP

Pour importer un compte de stockage GCP, vous devez créer un compte de service ayant accès au stockage et créer une paire de clés pour le compte.

  1. Dans le menu principal de Google Cloud, sous la section IAM & Admin, naviguez jusqu'à Comptes de service.
    Comptes de service dans le menu

  2. En haut de l'écran, cliquez sur Créer un compte de service et remplissez les informations relatives au compte. L'identifiant du compte de service est généré automatiquement par défaut, mais vous pouvez le générer à nouveau ou saisir manuellement la valeur de votre choix.
    Bouton de création de compteDétails du compte de service

  3. Après avoir créé l'utilisateur, cliquez sur son nom d'utilisateur dans la liste et accédez à l'onglet Keys. À partir de là, cliquez sur le bouton Add Key (Ajouter une clé) et sélectionnez Create new key (Créer une nouvelle clé). À l'invite, assurez-vous que JSON est sélectionné et cliquez sur le bouton Créer. Cela créera un fichier .json et le téléchargera sur votre ordinateur.
    Page utilisateur du compte de serviceBoîte de dialogue Créer une clé privée

Pour importer le compte GCP dans Datahub, ouvrez le fichier .json dans un éditeur de texte et collez le contenu dans la zone de texte Service Account Credentials (JSON) dans Datahub.
Dialogue d'importation du stockage des BPC

Modifier cette page sur GitHub
Dernière mise à jour: 2026-04-22 15 h 58
Précédent
Importer du stockage Azure