Description
L'objectif est d'acquérir une méthode, ainsi que les connaissances nécessaires pour créer des projets d'intégration de données performants avec SAP BusinessObjects Data Integrator XI 3. Elle permet à des profils techniques de maîtriser l'interface d'alimentation de bases de données (SAP Data Services) pour mettre à disposition des utilisateurs finaux des données fiables, précises et actualisée.Pré-requis
- Connaissance des bases de données relationnelles et du langage SQL.
- Notions de base de programmation (variables, fonctions…).
Publics
- Consultants,
- Chefs de projets,
- Développeurs.
Objectifs
- Acquérir les techniques pour alimenter les bases de données relationnelles
- Création de flux ETL pour l'extraction, la transformation et le chargement de données
- Appliquer différentes transformations
- Planifier et ordonnancer les flux d'alimentation de bases de données décisionnelles
- Administrer vos environnements et vos utilisateurs
Plan de formation
Rappel du concept de Data Warehousing et du rôle de l’ETL
- Description de l’architecture Data Warehouse et de la modélisation dimensionnelle
- Description des fonctionnalités de la couche d’alimentation des données décisionnelles
Présentation de l’outil BODI
- Définition de l’architecture de BODI et son interface de développement des flux
- Définition d’un projet, des objets et des flux et leurs relations dans BODI
Définition des données sources et cibles et des métadonnées
- Connexions à des données sources et cible : bases de données et fichiers XML et fichiers positionnels
- Gestion des métadonnées et modification des formats
- Définition du référentiel d’accès aux données
- Notion de Datastore
- Audit des données et gestion des exceptions
- Reporting des métadonnées
Création et gestion des Jobs
- Job
- Workflow
- Data-flow
- Objets dans les schémas source et cible
- Planification et exécution du Job
- Ajout de table au Data-flow selon un modèle prédéfini
- Description de l’éditeur de la cible
Utilisation des fonctionnalités de transformation de Data Integrator
- Panorama et typologie des fonctionnalités de transformation
- Les différentes fonctionnalités : pivot, aplatissement d’une hiérarchie, XML Pipeline, variables et paramètres, langage de scripting, options de mise à jour des données
Change Data Capture ou la Capture des Données Modifiées
- Définition des différences entre le CDM basé sur la source et le CDM basé sur la cible
- Gestion des erreurs et des exceptions
- Procédures de reprise
- Exécution de données malgré des problèmes
Clés de substitution
- Rôle des clés de substitution
- Gestion des modifications apportées aux données avec des clés de substitution
Gestion des environnements et des utilisateurs
- Environnement multiutilisateur
- Tâches communes
- Gestion des environnements de développement, test et production
- Outils de migration
- Migration et portabilité des environnements
Interface d’administration
- Administration via le Web
- Sécurité sur le référentiel central
- Administration des Batch
- Analyser les effets d’une modification de structure de table avec l’interface d’analyse d’impact
- Visualiser les statistiques d’exécution des jobs avec les tableaux de bord opérationnels
Validation, exécution et débogage des Jobs et des transformations
- Descriptions et des annotations
- Validation et exécution des Jobs
- Visualisation en mode Trace
- Débogage des Jobs
- Description des transformations Built-in
- Encapsulation des Data flow
- Fonctions Built-in
Optimisation des performances des flux
- Optimisation des performances de la source et de la cible
- Optimisation des performances des traitements
- Partitionnement et d’exécution parallèle des flux
- Fonctionnalité de Data Transfer