Talk donné lors de devops REX 2018, la conférence devops 100% retours d'expériences - http://www.devopsrex.fr
Speaker : Joris CALABRESE
Entreprise : Meetic
Dans un environnement de transformation digitale, d’Agilité at Scale, il est primordial de mesurer notre capacité à apporter de la valeur à nos utilisateurs. Cela revient également à mesurer la performance de nos organisations, dixit Melvin Conway, « Les organisations qui conçoivent les systèmes sont contraintes de produire des modèles qui sont des copies de leur propre structure de communication ».
Dans ce contexte, comment la qualité peut-elle être un indicateur clé pour mesurer notre performance ? Comment, nos pratiques de tests, reflètent-elles nos organisations ? Au travers mon expérience chez Meetic durant ces 5 dernières années, je vous propose un retour d’expérience sur les grands changements stratégiques techniques et produits qui m’ont amené à vous proposer cette réflexion autour de l’impact de nos organisations sur la qualité.
10. Organizations which design systems are
constrained to produce designs which are
copies of the communication structures of
these organizations
Melvin Conway – 1968
28. TMA
Identification des Root Causes
Répartition des bugs
Correction des problèmes transverses
QA
OPS
CYCLE DE MAINTENANCE
SOFTWARE
ENGINEERS
SOFTWARE
ENGINEERS
Identification des bugs
Qualification des bugs
30. NOTRE MÉTRIQUE
AUTOMATISATION
TEMPS DE CYCLE BUGS FLOW
Pas d’initiative d’automatisation
Seulement des tests manuels
Pas d’Intégration Continue
Collaboration entre TMA et QA est efficace
Bonne gestion des bugs
Release principale tous les 15 jours
Release de bugs deux fois par semaine
44. PLATFORM
TEAM
PLATFORM
TEAM
REFACT.
TEAM
QA
QA
QA
Tests sur la R7
Validation branche par branche
OPS
Déploiement
Monitoring technique
CYCLE DE DÉVELOPPEMENT
Nouvelle fonctionnalité
1 branche par changement
Tests Unitaires
Code Review
Tests sur la R7
47. Bonne couverture de tests unitaires
Bonne expérience de développement (CI, Code review)
Initiative sur les tests fonctionnels
~350 scenarios comportementaux
Plus d’équipe TMA
Les équipes sont responsables de leurs
backlogs de bugs
Ajouter le plus rapidement possible de petits
changements
Environ 10 changements par jour
TNR à chaque fin de journée
AUTOMATISATION
TEMPS DE CYCLE BUGS FLOW
NOTRE MÉTRIQUE
48. LES IMPACTS DE CONWAY
API EXPOSURE LAYER
Règles business
implémentées
Les microservices ne
correspondaient pas
aux nouveaux
besoins
Ownershi
p
61. INDUS STAND UP
OBJECTIF
Comprendre les contraintes de
chaque équipe afin d’améliorer
les relations et développer un
climat de confiance
RELEASE
Board commun
62. CYCLE DE DÉVELOPPEMENT
Nouvelle fonctionnalité
1 branche par changement
Tests Unitaires
Tests Fonctionnels
Code Review
Tests sur la R7
Déploiement
Monitoring
ALGO
INTERACT.
PROFIL
E
CAIPI
OPS
QA
64. NOTRE MÉTRIQUE
Les équipes sont responsables de leurs
backlogs de bugs
Amélioration de leurs capacités à prendre
à compte les BUGS
Toujours une bonne couverture de tests unitaires
Intégration de Docker
Bonne couverture de tests fonctionnels
~1400 scenarios comportementaux
Flux de release optimisé
Les équipe de développement sont autonomes
AUTOMATISATION
TEMPS DE CYCLE BUGS FLOW
Quelle entreprise aujourd’hui n’a pas sa start up qui l’a obligé à se transformer afin d’améliorer sa capacité à apporter de la valeur à ses utilisateurs ?
Rajouter un slide sur la notion d'assurance qualité