A l’issue de la formation le participant sera capable de :
Démontrer comment Apache Beam et Dataflow fonctionnent ensemble pour répondre aux besoins de traitement des données de votre organisation.
Résumer les avantages de Beam Portability Framework et activer-le pour vos pipelines Dataflow.
Activer Shuffle et Streaming Engine, respectivement pour les pipelines batch et streaming, pour des performances maximales.
Activer la planification flexible des ressources pour des performances plus rentables.
Sélectionner la bonne combinaison d’autorisations IAM pour votre tâche Dataflow.
Mettre en œuvre les meilleures pratiques pour un environnement de traitement de données sécurisé.
Sélectionner et ajuster les E/S de votre choix pour votre pipeline Dataflow.
Utiliser des schémas pour simplifier votre code Beam et améliorer les performances de votre pipeline.
Développer un pipeline Beam en utilisant SQL et DataFrames.
Effectuer la surveillance, le dépannage, les tests et la CI/CD sur les pipelines Dataflow.