SlideShare une entreprise Scribd logo
1  sur  35
Télécharger pour lire hors ligne
Présentation Yest
2
Sommaire
But de l’application
Aide à la conception
Ecriture des cas de test
Maintenance des cas de test
Dashboard
Exemple: Application mail
1.
But de l’application
Aide à la conception des tests
• MBT allégé
Ecriture des cas de test
• A partir des parcours applicatifs
• Export
• Automatisation avec du KDT
Aide à la maintenance
• Mise à jour de l’ensemble des test
But de l’application
2.
Aide à la conception des tests
Première étape: créer un parcours
Créer un parcours applicatif
Création d’un parcours applicatif avec différents modules:
• Point d’entrée:
• Point de sortie:
• Tâche:
• Point de choix:
• Sous-parcours:
• Connecteurs:
Aide à la conception des tests
Les tables de données (liées aux point de choix et aux tâches):
• Affectations (illimité):
• Donnée réutilisable dans le parcours
• Conditions (illimité):
• Peut reprendre des affectations définies préalablement
• Etapes de test (1 colonne, mais lignes illimitées):
• Ensemble des actions et de leur résultats à cet étape du parcours
Aide à la conception des tests
• Direction suivante (1):
• Possibilités offertes définies avec les connecteurs
• Objectif (1):
• Donne un objectif à la ligne de donnée, permet de nommer les cas de test
• Exigence (1):
• Non utilisé
• Informations supplémentaires (illimité):
• A créer
Aide à la conception des tests
3.
Ecriture des cas de test
Génération des tests
• Couverture des « instructions »
• Si conditions et affectations mal définies alors les parcours générés peuvent être
non pertinent
• Chemin le plus rapide lorsque des étapes ont déjà été testées,
• Suivi du parcours applicatif
• Possibilité de voir le parcours couvert pas le test directement sur le schéma
• Test non conforme au parcours indiqué
Ecriture des cas de test
• Génération automatique des tests sur:
• A partir d’un parcours (ou sous-parcours) applicatif
• Lors de la génération, possibilité de connecter les sous-parcours aux parcours
« père »
• Possibilité de modifier manuellement les parcours générés
• L’ensemble des tests passant par une tâche
• Nom généré en ajoutant l’ensemble des « objectifs » parcourus par le test
• Création manuelle des tests:
• Avec assistant faisant un lien avec le parcours
Ecriture des cas de test
Export:
• Excel
• ALM (synchronisation)
• SquashTM
• TestLink (création d’un xml à importer)
• Autres (sur demande ou rapidement développés)
Création de campagnes pour exporter les tests souhaités
Ecriture des cas de test
• Création configuration de publication pour exporter
Ecriture des cas de test
Automatisation: KDT avec Sélénium
Définition de dictionnaires des mots clés sous Excel
Ecriture des cas de test
• Etapes à automatiser pour les tests
• Pour chaque étape, définition des actions à effectuer:
Ecriture des cas de test
• Visualisation des tests automatisés:
Ecriture des cas de test
• Visualisation des tests
automatisés:
Ecriture des cas de test
4.
Maintenance
• Modification d’un cas ou d’une ligne du parcours applicatif:
• Demande si modification sur l’ensemble des cellules identiques (d’autres tables
des différents parcours du projet) et des cas de test comprenant cette ligne
• Si on accepte: mise à jour automatique
• Si on refuse: seule cette ligne est modifiée
Maintenance des cas de test
5.
Dashboard
• Accès
Maintenance des cas de test
Informations:
• Par parcours
• Par décisions
• Nombre de tests
Maintenance des cas de test
6.
Exemple
• Parcours principal:
Exemple: Application mail
• Parcours principal:
Exemple: Application mail
Exemple: Application mail
• Sous-parcours: Ecriture
• Sous-parcours: Ecriture (tables Destinataires et Envoi)
Exemple: Application mail
• Sous-parcours imbriqués
Exemple: Application mail
• Génération des tests
Exemple: Application mail
• Couverture
Exemple: Application mail
• Couverture
Exemple: Application mail
• Couverture
Exemple: Application mail
Les points forts :
• Outil intuitif et documenté trois outils en un
• Gain en maintenance des cas de test
• Bien adapté aux « User stories » et au BDD
• Compréhensible par tout type de profil sur le projet
• Lien avec les principaux ALM
•Les points faibles
• Outil supplémentaire
• Ergonomie encore à améliorer (ex: taille colonne des tables de données)
• Oblige à penser différemment
• Nécessite une montée en compétence
Points forts/points faibles Yest
MERCI de votre attention

Contenu connexe

Similaire à Pres yest

20080923 04 - Selenium web application testing system
20080923 04 - Selenium web application testing system20080923 04 - Selenium web application testing system
20080923 04 - Selenium web application testing systemLeClubQualiteLogicielle
 
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
20130523 04 - Grille d'évaluation - Gestion du patrimoine de testLeClubQualiteLogicielle
 
Presentation tests d'acceptations automatisés sug v1.1
Presentation tests d'acceptations automatisés sug v1.1Presentation tests d'acceptations automatisés sug v1.1
Presentation tests d'acceptations automatisés sug v1.1Jean-Emmanuel Houdu
 
Play Framework
Play FrameworkPlay Framework
Play FrameworkArmaklan
 
20070925 04 - Panorama des outils Open Source / Qualité des développements
20070925 04 - Panorama des outils Open Source / Qualité des développements20070925 04 - Panorama des outils Open Source / Qualité des développements
20070925 04 - Panorama des outils Open Source / Qualité des développementsLeClubQualiteLogicielle
 
[Agile Testing Day] Test & Métiers
[Agile Testing Day] Test & Métiers[Agile Testing Day] Test & Métiers
[Agile Testing Day] Test & MétiersCellenza
 
testUnitaire (1).pptx
testUnitaire (1).pptxtestUnitaire (1).pptx
testUnitaire (1).pptxManalAg
 
Performance ug#1
Performance ug#1Performance ug#1
Performance ug#1Marc Bojoly
 
Automatisation des tests - objectifs et concepts - partie 2
Automatisation des tests  - objectifs et concepts - partie 2Automatisation des tests  - objectifs et concepts - partie 2
Automatisation des tests - objectifs et concepts - partie 2Christophe Rochefolle
 
XStudio - Présentation Télécom Valley
XStudio - Présentation Télécom ValleyXStudio - Présentation Télécom Valley
XStudio - Présentation Télécom ValleyMarc Hage Chahine
 
Présentation JSS2015 - Le Query Store de SQL Server 2016
Présentation JSS2015 - Le Query Store de SQL Server 2016Présentation JSS2015 - Le Query Store de SQL Server 2016
Présentation JSS2015 - Le Query Store de SQL Server 2016Guillaume Nocent
 
[JSS2015] Query Store
[JSS2015] Query Store[JSS2015] Query Store
[JSS2015] Query StoreGUSS
 
Load test & performance profiling
Load test & performance profilingLoad test & performance profiling
Load test & performance profilingMSDEVMTL
 
Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018
Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018
Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018Loic Yon
 
Modélisation de données pour MongoDB
Modélisation de données pour MongoDBModélisation de données pour MongoDB
Modélisation de données pour MongoDBMongoDB
 
Offre Audit et Test De Performance
Offre Audit et Test De PerformanceOffre Audit et Test De Performance
Offre Audit et Test De PerformanceCabinet Openi
 

Similaire à Pres yest (20)

20080923 04 - Selenium web application testing system
20080923 04 - Selenium web application testing system20080923 04 - Selenium web application testing system
20080923 04 - Selenium web application testing system
 
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
 
Presentation tests d'acceptations automatisés sug v1.1
Presentation tests d'acceptations automatisés sug v1.1Presentation tests d'acceptations automatisés sug v1.1
Presentation tests d'acceptations automatisés sug v1.1
 
Play Framework
Play FrameworkPlay Framework
Play Framework
 
20070925 04 - Panorama des outils Open Source / Qualité des développements
20070925 04 - Panorama des outils Open Source / Qualité des développements20070925 04 - Panorama des outils Open Source / Qualité des développements
20070925 04 - Panorama des outils Open Source / Qualité des développements
 
[Agile Testing Day] Test & Métiers
[Agile Testing Day] Test & Métiers[Agile Testing Day] Test & Métiers
[Agile Testing Day] Test & Métiers
 
testUnitaire (1).pptx
testUnitaire (1).pptxtestUnitaire (1).pptx
testUnitaire (1).pptx
 
Methodologie projet
Methodologie projet Methodologie projet
Methodologie projet
 
Conformiq
ConformiqConformiq
Conformiq
 
Performance ug#1
Performance ug#1Performance ug#1
Performance ug#1
 
Automatisation des tests - objectifs et concepts - partie 2
Automatisation des tests  - objectifs et concepts - partie 2Automatisation des tests  - objectifs et concepts - partie 2
Automatisation des tests - objectifs et concepts - partie 2
 
XStudio - Présentation Télécom Valley
XStudio - Présentation Télécom ValleyXStudio - Présentation Télécom Valley
XStudio - Présentation Télécom Valley
 
Présentation JSS2015 - Le Query Store de SQL Server 2016
Présentation JSS2015 - Le Query Store de SQL Server 2016Présentation JSS2015 - Le Query Store de SQL Server 2016
Présentation JSS2015 - Le Query Store de SQL Server 2016
 
[JSS2015] Query Store
[JSS2015] Query Store[JSS2015] Query Store
[JSS2015] Query Store
 
20110125 04 - Présentation Squash
20110125 04 - Présentation Squash20110125 04 - Présentation Squash
20110125 04 - Présentation Squash
 
Load test & performance profiling
Load test & performance profilingLoad test & performance profiling
Load test & performance profiling
 
Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018
Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018
Java - Support etudiant - Tronc Commun Deuxième année ISIMA - 2018
 
Modélisation de données pour MongoDB
Modélisation de données pour MongoDBModélisation de données pour MongoDB
Modélisation de données pour MongoDB
 
20111004 05 - Présentation Squash
20111004 05 - Présentation Squash20111004 05 - Présentation Squash
20111004 05 - Présentation Squash
 
Offre Audit et Test De Performance
Offre Audit et Test De PerformanceOffre Audit et Test De Performance
Offre Audit et Test De Performance
 

Plus de Marc Hage Chahine

Plus de Marc Hage Chahine (11)

ATDD Visuel
ATDD VisuelATDD Visuel
ATDD Visuel
 
[STLS] tests de performance coherenSE
[STLS] tests de performance coherenSE[STLS] tests de performance coherenSE
[STLS] tests de performance coherenSE
 
Testeur agile mhc
Testeur agile   mhcTesteur agile   mhc
Testeur agile mhc
 
Testeur agile mhc
Testeur agile   mhcTesteur agile   mhc
Testeur agile mhc
 
Ludo tic IA et bots
Ludo tic IA et botsLudo tic IA et bots
Ludo tic IA et bots
 
Magie des tests
Magie des testsMagie des tests
Magie des tests
 
20171005 jttl rca_riou_du_cosquer_eric
20171005 jttl rca_riou_du_cosquer_eric20171005 jttl rca_riou_du_cosquer_eric
20171005 jttl rca_riou_du_cosquer_eric
 
Futur tunis
Futur tunisFutur tunis
Futur tunis
 
Altran soirée du test logiciel - assez des c 05-10-17
Altran   soirée du test logiciel - assez des c 05-10-17Altran   soirée du test logiciel - assez des c 05-10-17
Altran soirée du test logiciel - assez des c 05-10-17
 
Mon manifese du testeur
Mon manifese du testeurMon manifese du testeur
Mon manifese du testeur
 
TelecomValley 2017 05-18-ARMAGNACQ_automatisation+test_ihm
TelecomValley 2017 05-18-ARMAGNACQ_automatisation+test_ihmTelecomValley 2017 05-18-ARMAGNACQ_automatisation+test_ihm
TelecomValley 2017 05-18-ARMAGNACQ_automatisation+test_ihm
 

Pres yest

  • 2. 2 Sommaire But de l’application Aide à la conception Ecriture des cas de test Maintenance des cas de test Dashboard Exemple: Application mail
  • 4. Aide à la conception des tests • MBT allégé Ecriture des cas de test • A partir des parcours applicatifs • Export • Automatisation avec du KDT Aide à la maintenance • Mise à jour de l’ensemble des test But de l’application
  • 5. 2. Aide à la conception des tests
  • 6. Première étape: créer un parcours Créer un parcours applicatif
  • 7. Création d’un parcours applicatif avec différents modules: • Point d’entrée: • Point de sortie: • Tâche: • Point de choix: • Sous-parcours: • Connecteurs: Aide à la conception des tests
  • 8. Les tables de données (liées aux point de choix et aux tâches): • Affectations (illimité): • Donnée réutilisable dans le parcours • Conditions (illimité): • Peut reprendre des affectations définies préalablement • Etapes de test (1 colonne, mais lignes illimitées): • Ensemble des actions et de leur résultats à cet étape du parcours Aide à la conception des tests
  • 9. • Direction suivante (1): • Possibilités offertes définies avec les connecteurs • Objectif (1): • Donne un objectif à la ligne de donnée, permet de nommer les cas de test • Exigence (1): • Non utilisé • Informations supplémentaires (illimité): • A créer Aide à la conception des tests
  • 11. Génération des tests • Couverture des « instructions » • Si conditions et affectations mal définies alors les parcours générés peuvent être non pertinent • Chemin le plus rapide lorsque des étapes ont déjà été testées, • Suivi du parcours applicatif • Possibilité de voir le parcours couvert pas le test directement sur le schéma • Test non conforme au parcours indiqué Ecriture des cas de test
  • 12. • Génération automatique des tests sur: • A partir d’un parcours (ou sous-parcours) applicatif • Lors de la génération, possibilité de connecter les sous-parcours aux parcours « père » • Possibilité de modifier manuellement les parcours générés • L’ensemble des tests passant par une tâche • Nom généré en ajoutant l’ensemble des « objectifs » parcourus par le test • Création manuelle des tests: • Avec assistant faisant un lien avec le parcours Ecriture des cas de test
  • 13. Export: • Excel • ALM (synchronisation) • SquashTM • TestLink (création d’un xml à importer) • Autres (sur demande ou rapidement développés) Création de campagnes pour exporter les tests souhaités Ecriture des cas de test
  • 14. • Création configuration de publication pour exporter Ecriture des cas de test
  • 15. Automatisation: KDT avec Sélénium Définition de dictionnaires des mots clés sous Excel Ecriture des cas de test
  • 16. • Etapes à automatiser pour les tests • Pour chaque étape, définition des actions à effectuer: Ecriture des cas de test
  • 17. • Visualisation des tests automatisés: Ecriture des cas de test
  • 18. • Visualisation des tests automatisés: Ecriture des cas de test
  • 20. • Modification d’un cas ou d’une ligne du parcours applicatif: • Demande si modification sur l’ensemble des cellules identiques (d’autres tables des différents parcours du projet) et des cas de test comprenant cette ligne • Si on accepte: mise à jour automatique • Si on refuse: seule cette ligne est modifiée Maintenance des cas de test
  • 23. Informations: • Par parcours • Par décisions • Nombre de tests Maintenance des cas de test
  • 27. Exemple: Application mail • Sous-parcours: Ecriture
  • 28. • Sous-parcours: Ecriture (tables Destinataires et Envoi) Exemple: Application mail
  • 30. • Génération des tests Exemple: Application mail
  • 34. Les points forts : • Outil intuitif et documenté trois outils en un • Gain en maintenance des cas de test • Bien adapté aux « User stories » et au BDD • Compréhensible par tout type de profil sur le projet • Lien avec les principaux ALM •Les points faibles • Outil supplémentaire • Ergonomie encore à améliorer (ex: taille colonne des tables de données) • Oblige à penser différemment • Nécessite une montée en compétence Points forts/points faibles Yest
  • 35. MERCI de votre attention