Gains de productivité et ROI avec Yest® : ce que nos clients ont mesuré

Dans vos contextes où la rapidité, la qualité et la maîtrise des coûts sont des enjeux majeurs, il est essentiel que les outils de test apportent des gains de productivité et un ROI concret. Grâce à une approche structurée, Yest® simplifie chaque étape du processus de test. De l’expression des besoins à l’exécution des cas de test, il vous aide à optimiser votre approche de test.

Découvrez ci-dessous les gains de productivité constatés avec Yest.

Clarifier les besoins au plus tôt = 50 % de rework évité

La conception visuelle des tests avec Yest® est basée sur des représentations graphiques et des tables de décision. Ces mécanismes permettent de révéler très tôt les zones d’ombre et les incohérences dans les exigences. Par conséquent, les erreurs sont détectées avant même le début du développement. Cela évite les allers-retours coûteux entre les équipes métier, les développeurs et les testeurs.

Par exemple, un chiffre clé mesuré par un de nos clients permet de se faire une idée de l’impact Yest® sur cette clarification. Ce client, grande ESN opérant un centre de service, a mesuré un gain de 50% sur le « rework » dû aux incompréhensions avec son client. Par conséquent, le cycle ‘Production → invalidation client → correction → nouvelle invalidation → re-correction » a été considérablement optimisé.

Par ailleurs, nos clients constatent un impact qualitatif fort sur l’alignement des équipes. Les représentations visuelles proposées par Yest® rendent les échanges plus fluides, plus rapides et évitent alors bien des malentendus. Comme le dit l’adage : un bon dessin vaut mieux qu’un long discours. De surcroît, quand on sait le temps perdu en réunions et échanges imprécis, ce gain en clarté fait toute la différence.

Conception de tests : +25 % de productivité

Nos clients constatent entre 20 et 30 % de gains de productivité lors de la conception des tests manuels. Ces résultats s’expliquent par la manière dont Yest® repense en profondeur cette phase clé, en facilitant la formalisation claire et structurée des besoins. Mais ces gains ne viennent pas uniquement de cette approche : ils s’appuient également sur les nombreux accélérateurs intégrés dans l’outil, qui font de Yest® un véritable IDE pour le testeur.

Ce que nos utilisateurs apprécient particulièrement, c’est la fluidité du processus et la cohérence des scénarios produits, grâce aux accélérateurs . Sans oublier la réduction de la charge mentale liée aux tests, où les tâches peuvent être répétitives et chronophages.

Ainsi, avec Yest®, les équipes ne se contentent plus de produire des tests : elles gagnent en clarté, en cohérence et en efficacité.

Concrètement :

  • Elles génèrent automatiquement les scénarios à partir des parcours fonctionnels.
  • Elles créent rapidement les jeux de données grâce à un assistant intégré.
  • Elles réutilisent facilement leurs composants via du refactoring intelligent.
  • Elles maintiennent sans effort les liens de traçabilité vers les User stories et les spécifications.
  • Enfin, elles publient les tests directement dans le référentiel du projet.

Par conséquent, chaque tâche devient plus simple, plus rapide et moins sujette à erreur.

Résultat : des équipes plus agiles, plus alignées et avec un cycle de test parfaitement maîtrisé.

Des campagnes d’exécution allégées de 10 %

Trop souvent, on sous-estime l’impact de Yest® sur l’exécution des campagnes de test. Alors qu’avec Yest®, les équipes de test :

  • Optimisent en premier lieu le nombre de cas de test nécessaires pour atteindre une couverture fonctionnelle donnée.
  • Uniformisent les scénarios, ce qui simplifie et accélère ainsi l’exécution.
  • Documentent de manière plus efficace : chaque étape de test paramétrée ne sont décrites qu’une seule fois, ce qui facilite l’adhésion des équipes à une documentation de qualité.
  • Contrôlent avec une précision accrue les jeux de données, ce qui permet de réduire les interruptions et les retards lors de l’exécution des tests.
  • Maintiennent automatiquement un référentiel propre : en supprimant les tests obsolètes ou redondants, Yest® évite ainsi les exécutions inutiles et fait gagner un temps précieux.

En résumé, Yest® optimise l’exécution manuelle des tests en la rendant plus fluide, plus structurée et nettement plus performante. Grâce à cette approche, les équipes bénéficient d’un gain moyen de 10 % sur l’ensemble des campagnes de test.

Mise à jour des tests : jusqu’à 45 % de gain de productivité

C’est sur la mise à jour des tests que Yest® montre toute sa puissance : les modifications sont propagées automatiquement là où elles sont nécessaires. Ainsi, fini les tâches répétitives et chronophages ! Nos clients rapportent des statistiques convergentes sur les gains de productivité lors de la mise à jour des tests, qui varient entre 40 et 50%. Ce résultat découle directement des services fournis par Yest®, notamment :

  • L’identification automatique des impacts et le refactoring :
    Yest® propose une approche structurée de la conception des tests, où chaque composant : parcours applicatifs, données, règles métiers, documentation – est géré de façon indépendante, tout en garantissant la cohérence d’ensemble. En cas de changement, Yest® facilite l’identification précise de l’élément à modifier et permet d’intervenir directement à la source. Il évalue automatiquement l’impact de cette modification sur les autres éléments et met à jour les tests concernés, permettant ainsi de gagner en efficacité, en fiabilité et en sérénité.
  • Publication et gestion du cycle de vie des tests dans le référentiel choisi :
    Yest® garantit un référentiel constamment à jour et optimisé, sans tests obsolètes ni redondants.

Automatisation simplifiée, pour les automaticiens et les testeurs fonctionnels

Parmi nos retours clients concernant l’automatisation, l’un d’eux a partagé une statistique particulièrement parlante : 25 % de temps gagné par l’automaticien de test grâce à Yest®

Ce gain de productivité s’explique par plusieurs leviers complémentaires :

  • Une montée en compétence fonctionnelle plus rapide de l’automaticien, facilitée par la clarté des représentations visuelles.
  • Une structuration logique des scénarios métiers, directement alignée avec celle des scripts automatisés.
  • Une maintenance simplifiée des scripts, désormais réalisable par les testeurs fonctionnels, sans dépendre de l’automaticien.
  • Une publication fluide des scripts fonctionnels dans l’outil d’automatisation choisi.
  • Une identification optimisée des mots-clés, accélérant la création et la mise à jour des scripts.

Ces éléments conjugués permettent de réduire significativement le temps consacré à l’automatisation, tout en renforçant la collaboration entre les équipes. En plus, grâce à la clarté des représentations visuelles et à la structuration des scénarios métiers, l’automatisation devient accessible aux profils non techniques. L’automaticien gagne du temps, mais surtout, les testeurs fonctionnels peuvent participer à la maintenance des scripts automatisés.

Un ROI mesurable en jours-homme économisés

Notre hypothèse de travail repose sur la répartition du poids des différentes tâches dans le processus de test. Nous prenons pour référence un projet incluant deux itérations de maintenance. Pour chacune des tâches, nous associons les gains de productivité obtenus avec Yest.s de test. Nous prenons pour référence un projet incluant deux itérations de maintenance. Pour chacune des tâches, nous associons les gains de productivité obtenus avec Yest.

Gains de productivité et ROI avec Yest®

Prenons un cas concret : des équipes de test composées au total de 15 personnes.

En moyenne, les testeurs consacrent environ 70 % de leur temps aux activités de test. Telles que l’analyse des entrants fonctionnels, la conception des scénarios, l’exécution des tests et leur maintenance (liste complète des tâches présentées dans le tableau ci-dessus). Les 30 % restants sont dédiés à la préparation d’environnements, le recueil des données de test et analyses des résultats des tests. 

Dans notre exemple, nous considérons que Yest® est utilisé sur environ 35 % des tâches mentionnées ci-dessus.

Sur cette base, le calcul des gains de productivité devient rapidement parlant. Pour une équipe composée de 15 personnes travaillant 220 jours par an, cela représente un investissement de 2 310 jours-homme par an sur les activités concernées. Grâce à l’optimisation apportée par Yest®, on observe en moyenne 18,4 % de gain de productivité sur ces tâches. Cela équivaut à 425 jours-homme économisés chaque année.

En valorisant ce gain avec un taux journalier moyen de 390 € (fourchette basse), cela représente une économie annuelle de 165 750 €.

Au-delà des chiffres, ces résultats signifient concrètement pour votre organisation :

  • Un allègement significatif de la charge de travail des équipes. Ce qui leur permet de se concentrer sur des tâches à plus forte valeur ajoutée.
  • Une baisse directe des coûts liés aux tests, tout en augmentant l’efficacité et la fiabilité des livrables.
  • Un retour sur investissement rapide, avec des effets visibles dès les premières itérations du projet.

Faites-vous votre propre idée des gains obtenus

Chaque organisation a ses propres enjeux, ses contraintes et ses objectifs. C’est pourquoi le retour sur l’investissement peut varier d’un contexte à l’autre. Pour aller au-delà des chiffres génériques et obtenir une évaluation précise, concrète et adaptée à votre réalité, notre équipe se tient à votre disposition.

Contactez-nous pour analyser ensemble votre situation et découvrir comment Yest® peut générer rapidement de la valeur dans votre environnement.ent.

CTA Yest

Nous sommes ravis d’annoncer la sortie de Yest 4.0 qui intègre de l’IA, une mise à jour majeure qui apporte des fonctionnalités puissantes pour optimiser vos processus de tests logiciels. Cette version introduit des outils innovants comme l’uniformisation des tests et la génération de parcours, disponibles pour les utilisateurs disposant d’une licence Yest Enterprise.

Quelles sont les nouveautés de Yest 4.0 ?

Assistant Yest

Le nouveau menu Assistant Yest est désormais accessible pour les utilisateurs de la licence Enterprise. Ce menu centralise la configuration des nouvelles fonctionnalités telles que l’uniformisation des tests et la génération de parcours. Vous avez le choix entre plusieurs modes de fonctionnement pour l’assistant :

  • Serveur d’IA local
  • Serveur d’IA Smartesting
  • Analyse syntaxique (sans utilisation d’IA)

Pour plus de détails, nous vous recommandons de demander une démo de Yest avec notre équipe.

Yest 4.0 - assistant IA

Uniformisation des scénarios de test

Cette fonctionnalité analyse les étapes des scénarios, notamment les actions et les résultats attendus, afin d’identifier des groupes cohérents pouvant être uniformisés. Vous pouvez l’utiliser directement via le menu Assistant Yest ou en sélectionnant les scénarios, parcours ou dossiers à uniformiser. Cette fonctionnalité vous permettra de standardiser vos tests et de faciliter leur maintenance.

Génération de parcours

La version Yest 4.0 introduit également la possibilité de générer automatiquement un parcours à partir d’un scénario ou d’un groupe de scénarios. Cela simplifie grandement la conception de parcours complexes. Pour l’utiliser, effectuez simplement un clic droit sur le scénario ou le groupe, puis choisissez l’option Générer un parcours.

Améliorations de l’expérience utilisateur

Confirmation pour la fermeture d’onglets de publication
Nous avons ajouté un mécanisme de confirmation pour éviter les fermetures accidentelles d’onglets lors de la phase de publication.

Nouveautés des Publishers

Mises à jour Publisher Excel
La correspondance entre données de conception et d’implémentation a été améliorée, éliminant les erreurs observées dans certaines situations complexes.

Mises à jour Publisher Xray

  • Réorganisation des champs généraux et ajout d’onglets dédiés pour les tests, test sets et test plans.
  • Possibilité d’ajouter des descriptions personnalisées pour les tests, avec des options pour des descriptions communes ou uniques.
  • Nouvelle gestion des champs de type “étiquette” : remplacer, ajouter ou supprimer selon vos besoins.
  • Option pour afficher les données de conception en gras dans Xray, pour une meilleure lisibilité.

Découvrez comment Allianz France a atteint un cycle de développement Agile rapide et efficace grâce à l’intégration Xray-Yest : Lire le success case

Une version pensée pour améliorer vos projets

Avec Yest 4.0, nous avons mis l’accent sur l’innovation et la simplification pour vous permettre de gérer vos tests logiciels de manière optimale. Que ce soit pour uniformiser vos tests existants ou pour créer de nouveaux parcours, cette mise à jour est conçue pour s’adapter à vos besoins.

Partagez vos retours avec notre équipe, et restons connectés pour continuer à améliorer vos expériences avec Yest.

Tester avec l’IA générative : Comment se lancer vraiment est la grande question du moment pour les organisations de test.
Car, une fois passée l’étape de découverte, qui permet de confirmer la puissance des capacités des modèles d’IA pour les tests, il faut sortir du bricolage pour obtenir un vrai impact et un ROI mesuré. Et, ce n’est pas si simple !

Cet article accompagne la sortie de la première édition de notre guide pratique de l’IA générative pour les tests, en posant trois questions clés.

Tester avec l’IA générative :

  • Pour quoi faire ?
  • Pour quels cas d’usage ?
  • Comment démarrer et continuer ?

Tester avec l’IA générative : pour quoi faire ?

La réponse est limpide : pour gagner en productivité et en vélocité dans nos activités de test.

La fréquence des mises en production s’accélère, la complexité des systèmes à tester augmente, la demande de qualité est forte. En conséquence, il faut gagner en productivité dans nos activités de test, et l’IA générative est là pour cela.

Nous n’avons pas encore de statistiques précises sur les gains de productivité mesurés pour les métiers du test, car la diffusion de l’IA générative y est trop récente. 

Mais, nous avons des statistiques pour les activités des développeurs. Les deux graphiques suivants sont issus de l’enquête de Stack Overflow : 2024 Developer Survey, avec des réponses obtenues auprès de près de 30 000 développeurs professionnels.

Les chiffres sont parlants :

  • 76,7 % des développeurs professionnels ayant répondu utilisent ou ont prévu d’utiliser l’IA générative très prochainement pour les aider dans leurs activités ;
  • 82,7 % de ceux qui utilisent l’IA indiquent les gains de productivité comme un bénéfice obtenu.

Les trois activités principales assistées par l’IA mentionnées par les développeurs sont : l’écriture du code (pour 82 % des répondants), la recherche de réponses sur des questions liées au code (67,5 %), et le débogage du code (56,7 %). L’utilisation de l’IA pour l’écriture et l’amélioration du code est le focus principal. Ce qui est bien compréhensible puisque ceci est l’activité principale des développeurs.

A notre connaissance, il n’existe pas, à ce jour, d’étude de même nature pour les professionnels des tests logiciels. Mais, on peut faire deux hypothèses :

  • L’usage de l’IA générative par les professionnels des tests logiciels est très certainement bien moindre actuellement que celle des développeurs.
  • Une raison vient de la grande diversité des tâches de test. Les activités des testeurs sont très variées et se répartissent sur l’ensemble du cycle de test. L’utilisation de l’IA pour les tests s’en trouve forcément plus diversifiée et son infusion dans le quotidien des testeurs sera plus progressive.

Tester avec l’IA générative : pour quels cas d’usage ?

La réponse est limpide : potentiellement, pour l’ensemble des activités de test.

Considérons les sept groupes d’activité des tests logiciels selon ISTQB – International Software Testing Qualification Board – Testeur Certifié de Niveau Fondation, 

Tester avec l’IA générative : pour quels cas d'usage ?

Figure : Groupes d’activités de test suivant ISTQB Testeur Certifié Niveau Fondation – Version 4.0

Pour chaque groupe d’activités des tests logiciels, voici des cas d’usage de l’IA générative pour améliorer la productivité.

Planification des tests :

  • Génération automatique de plans de test basés sur les spécifications du projet.
  • Suggestion de stratégies de test adaptées au contexte du projet.
  • Estimation du temps et des ressources nécessaires pour les tests.

Analyse de test :

  • Analyse automatique des exigences pour identifier les scénarios de test pertinents.
  • Détection des ambiguïtés ou incohérences dans les spécifications.
  • Suggestion de cas de test couvrant différents aspects fonctionnels et non fonctionnels.
  • Analyse des risques pour identifier les zones les plus critiques à tester en fonction de l’historique des défauts et de l’importance des fonctionnalités.

Conception des tests :

  • Génération automatique de cas de test basés sur les spécifications.
  • Création de jeux de données de test variés et réalistes.
  • Suggestion de scénarios de test pour couvrir les cas limites et les exceptions.

Implémentation des tests :

  • Génération de code de test automatisé.
  • Conversion de cas de test écrits en langage naturel en scripts de test exécutables
  • Maintenance des scripts de test.
  • Suggestions d’optimisation du code de test existant.

Exécution des tests :

  • Exécution optimisée des tests.
  • Détection automatique des anomalies.
  • Priorisation intelligente des tests à exécuter en fonction du contexte et des changements.
  • Analyse en temps réel des résultats de test pour identifier rapidement les anomalies.
  • Génération automatique de rapports de test détaillés.

Clôture des tests :

  • Analyse des résultats de test pour générer des résumés et des recommandations.
  • Identification des tendances et des modèles dans les défauts trouvés.
  • Suggestion d’améliorations pour les futures phases de test.

Pilotage et Contrôle des tests :

  • Tableau de bord dynamique avec prévisions et analyses en temps réel.
  • Alertes automatiques sur les risques ou les retards potentiels.
  • Recommandations pour l’allocation optimale des ressources de test.

Ces cas d’usage ne donnent pas une liste exhaustive, mais montrent la grande diversité de l’apport de l’IA générative pour les tests, et le potentiel de gains en productivité et en vélocité.

Face à une telle profusion de cas d’usage, le monde du test est un peu désorienté…

Quel cas d’usage est prioritaire, par quoi commencer, où seront les gains les plus importants ?

Malheureusement, comme souvent en test logiciel, il n’y a pas une réponse unique s’appliquant à tous les cas. La raison vient de la diversité des contextes, des maturités en test et des processus et des habitudes de travail déjà en place. Les gains obtenus avec l’IA générative vont dépendre de votre capacité à bien utiliser l’IA, mais aussi de la qualité des données que nous allons utiliser pour nourrir cette IA.

Prenons un exemple en analyse et conception de tests : vous souhaitez utiliser l’IA générative pour accélérer la création des conditions de test à partir des User Stories et des critères d’acceptation. Très bien. Mais si vos critères d’acceptation sont lacunaires, pensez-vous réellement que les résultats seront à la hauteur de vos espérances ? Imaginez maintenant que vos critères d’acceptation soient de bonnes qualités, mais que les testeurs, non formés aux techniques de requêtage des modèles d’IA, créent des requêtes faibles avec des résultats médiocres. Là aussi, vos résultats ne seront pas ceux attendus.

Les gains obtenus avec l’IA vont donc varier en fonction de différents critères spécifiques à votre organisation. Notamment la qualité de vos données et celle de vos savoir-faire en IA générative. Il vous faut donc une véritable stratégie d’intégration pour infuser l’IA générative dans vos activités de test.

Tester avec l’IA générative : comment démarrer et comment continuer ?

La réponse est limpide : de façon progressive et structurée.

La figure suivante propose une approche par étapes pour commencer puis pour progresser dans la mise en œuvre de l’IA générative pour les tests.

Tester avec l’IA générative

Étape 1 : Découvrir 

Tout d’abord, il est important de découvrir les possibilités offertes par l’IA en initiant la formation des équipes, en mettant en place les accès nécessaires aux modèles de langage (LLM), et en expérimentant avec des cas d’usage initiaux. 

Étape 2 : Initialiser et cadrer l’usage

Une fois ces fondations posées, il convient de prioriser les cas d’usage pertinents, de développer les compétences internes, de mutualiser le savoir-faire acquis, et d’évaluer et d’intégrer les outils de test basés sur l’IA générative. 

Étape 3 : Exploiter / Itérer

Pour exploiter pleinement le potentiel de ces technologies, il faut les intégrer dans les flux de travail existants des testeurs. Ceci, en sélectionnant les traitements les plus performants, en évaluant régulièrement l’évolution des outils LLM, et en mesurant l’impact sur la transformation des pratiques de test. 

Cette démarche progressive et structurée vise à maximiser les bénéfices de l’IA générative tout en minimisant les risques associés à son implémentation. 

Mais, au fur et à mesure que vous avancez, de nombreuses questions se posent et de multiples choix sont à réaliser, des risques sont à éviter. Le tout, faisant émerger une nouvelle pratique des tests logiciels, assistée par l’IA.

Car il s’agit bien d’une transformation profonde des méthodes de travail que vous allez progressivement réaliser. Et comme toute transformation, sa réussite va dépendre de votre engagement, de l’adhésion des équipes et de la bonne exécution des étapes de la démarche.
Vous pourrez découvrir dans notre eBook Tester avec l’IA générative – Guide pratique, une vision à 360° des aspects clés pour réussir votre parcours.