ACCUEIL | > INNOVATION ACCÉLÉRÉE > LES QUATRE PILIERS D’UNE DÉMARCHE D’INNOVATION ACCÉLÉRÉE

L’innovation accélérée™

Parce que les bonnes méthodologies et les bons outils permettent de cibler rapidement l’action à conduire, l’innovation accélérée est une réponse à la nécessité d’aujourd’hui d’aller plus vite dans la maîtrise des processus de génération de valeur, qu’il s’agisse de R&D, d’industrialisation ou de production.

Ainsi :

  Mieux analyser et comprendre les détails des premiers résultats issus de la recherche,
  Accélérer les développements avec un nombre réduit de tests,
  Modéliser les performances ou identifier les points faibles d’un produit futur ou d’un procédé,
  Comprendre l’origine de dysfonctionnements sporadiques ou récurrents,
  Améliorer, optimiser, fiabiliser un produit, un processus ou un système,
  Développer des simulations complexes ou des algorithmes de traitements mathématiques spécialisés,
   

ne sont que quelques-uns des challenges que nous savons relever avec l’innovation accélérée™.

Les quatre piliers d’une démarche d’innovation accélérée

01.

Modéliser pour comprendre et maîtriser

La modélisation est l’opération consistant à construire un modèle, c’est-à-dire schématiquement la représentation mathématisée d’observations décrites par des facteurs.

À travers un modèle, on cherche avant tout à réaliser la synthèse des liens de causalité entre les facteurs et les observations.

La première propriété recherchée d’un modèle est sa capacité prédictive, c’est-à-dire sa capacité à anticiper correctement le résultat pour un jeu de facteurs donné. Cette propriété valide d’ailleurs, en quelque sorte, le fait que les liens de causalité entre facteurs et résultats sont correctement établis et mis en œuvre dans le modèle.

Une seconde propriété intéressante d’un modèle est d’être explicatif. C’est le cas lorsque les facteurs sont combinés dans une expression calculable (analytique) ou dans une expression permettant une approximation raisonnable (par exemple par calculs itératifs) ou bien même au sein d’un algorithme. Dans de tels cas, il est possible d’identifier le rôle joué par chaque facteur, et donc d’expliquer sa contribution au résultat.

Mais cette propriété n’est pas toujours acquise, et dépend directement des techniques de modélisation choisies. Ainsi, les systèmes d’apprentissage automatique par réseaux de neurones, et bien plus encore par deep learning ou par reinforced learning ne permettent pas de comprendre pour quelle raison les systèmes sont paramétrés d’une façon plutôt que d’une autre. En d’autres termes, le lien individuel entre paramètres et résultat n’est pas identifiable en tant que tel. Il s’agit pourtant bien d’une classe de modèles, puisqu’une fois réalisées les phases d’entraînement et d’optimisation (choix des hyperparamètres…), la seule connaissance des facteurs d’entrée permet de déterminer le résultat attendu.

Un modèle explicatif est-il nécessaire ?

La nécessité de disposer d’un modèle explicatif dépend beaucoup de l’enjeu attaché au modèle, et de son usage final. Cependant, des choix techniques peuvent dès le départ limiter cette possibilité, et ceci que l’enjeu soit important ou non.

Ainsi, lorsque le système de pilotage d’un véhicule autonome provoque un accident, il serait important de comprendre quels paramètres du modèle de conduite sont entrés en jeu pour provoquer l’erreur entraînant l’accident. Mais une telle analyse est malheureusement impossible, car ces systèmes sont construits à partir de modèles utilisant des techniques d’apprentissage neuronal.

Cette famille de techniques impose en effet plusieurs limitations, parmi lesquelles :

  • Impossibilité (ou quasi-impossibilité) de faire un lien direct entre le paramétrage et l’erreur faite dans un cas particulier, c’est-à-dire de remonter à la cause d’un cas d’erreur précis. On ne sait donc pas corriger ce genre de modèle, mais seulement l’améliorer, par exemple en rendant sa structure apte à traiter des informations plus complexes.
  • Impossibilité (ou quasi-impossibilité) de spécifier précisément quelles nouvelles situations ajouter à l’ensemble d’entraînement initial pour le compléter et empêcher ainsi une erreur donnée de se reproduire. Dans ce domaine, les recherches sont d’ailleurs actives pour essayer de déterminer des méthodes (ou des heuristiques) pouvant répondre au moins en partie à ce besoin.

Enfin, ce type de modèle est aussi caractérisé par la nécessité d’un volume important de données disponibles, tant pour l’apprentissage que pour la validation. Un effectif réduit ne permet donc pas l’utilisation de ces techniques (voir aussi 02. Décider plus vite, avec moins de données).

Pour ces raisons, et en dépit de leur richesse indéniable et de leur immense champ d’application actuel, l’utilisation de ces techniques pour accélérer les processus d’innovation (analyse ou définition d’études exploratoires, orientation des efforts de recherche, analyse de résultats d’essais préliminaires…) reste limitée. Dans de telles situations, la construction de modèles explicatifs et prédictifs est nécessaire.

Quand le modèle guide les efforts de R&D

C’est parce les modèles explicatifs (et prédictifs) offrent des possibilités d’exploration multiples qu’ils sont souvent importants dans l’accélération des processus de R&D.

  • Par leurs capacités explicatives, ils permettent de définir des solutions pour obtenir la performance attendue à moindre coût, par exemple en jouant sur des interactions favorables entre facteurs et en éliminant les interactions nuisibles. Ils permettent aussi de déterminer à l’avance des limites de comportement produit ou process, que quelques essais seulement suffisent alors à valider, ou bien encore d’éliminer complètement l’exploration de certaines variantes, directement identifiées comme sous-optimales par l’analyse de l’expression du modèle.
  • Par leurs capacités prédictives, ils permettent par exemple de réduire le nombre d’essais nécessaires pour parvenir à l’optimisation d’un produit ou d’un process et donc d’accélérer les développements. Ils peuvent aussi faciliter la maîtrise des marges de manœuvre (impact du choix de nouvelles matières premières, des cadences de fabrication, de la modification des paramètres d’un process…) et les prises de décisions tout en limitant les risques.
  • Enfin, de tels modèles n’exigent pas obligatoirement des données en volumes importants. Ils peuvent donc être utilisés très tôt dans les démarches de R&D pour orienter les efforts et accélérer la production des résultats.

Pour ces raisons, un modèle explicatif et prédictif représente par lui-même une grande part du potentiel de l’innovation que l’on cherche à développer.

Et parce qu’il peut être constamment confronté à de nouvelles observations pour détecter ses éventuelles limites et être amélioré, il est aussi un outil scientifique, utilisable par les équipes de R&D pour comprendre et maîtriser les phénomènes, et ainsi toujours assurer l’efficacité des efforts entrepris.

INWORKS-methode-et-outils-orange-2b

MÉTHODES ET OUTILS INWORKS

  • Modélisation rapide / comportementale
  • Modélisation hybride ou multiphysique
  • Simulation et algorithmie haute performance
  • Extraction et traitement de signaux faibles
  • Exploration multicritère sur calculateur parallèle INWORKS
INWORKS-applications-typiques-2c

APPLICATIONS TYPIQUES

  • Recherche scientifique ou industrielle
  • Optimisation de la performance produit ou process
  • Systèmes de détection multifacteurs
  • Traitements automatisés

02.

Décider plus vite, avec moins de données

Pouvoir décider avec moins de données, c’est-à-dire plus tôt, reste toujours un objectif à forte valeur ajoutée.

En effet, le coût d’obtention des données n’est jamais nul, qu’il s’agisse de temps alloué, de ressources matérielles dédiées ou d’équipes mobilisées. Ceci est particulièrement vrai lors des étapes de R&D, où les facteurs impliqués dans l’atteinte de l’objectif ne sont pas encore tous bien connus ni leurs effets maîtrisés, ce qui oblige généralement à multiplier les expérimentations, répéter les mesures et procéder à des validations partielles.

Mais analyser des données en faible effectif est nécessairement un challenge, puisque par nature certains phénomènes nécessitent une volumétrie importante pour apparaître statistiquement significatifs.

Quelles limites ?

Un effectif de données réduit impose en effet des restrictions plus ou moins importantes. De nombreuses limitations surgissent, par exemple :

  • La construction d’intervalles de confiance réalistes est difficile ou impossible
  • L’identification de potentielles valeurs extrêmes ou aberrantes est problématique
  • Les possibilités de détecter efficacement des interactions entre facteurs sont réduites
  • Les matrices de corrélation sont peu fiables et leur analyse peu informative
  • L’évaluation des queues de distribution est impossible

Un effectif réduit devient donc rapidement pénalisant. L’exemple du calcul d’un intervalle de confiance autour d’une moyenne observée suffit pour s’en convaincre, l’amplitude de cet intervalle étant directement proportionnel à l’inverse de la racine carrée de l’effectif.

Cette situation conduit également à exclure l’utilisation de certaines approches particulièrement exigeantes en données, comme les méthodes d’apprentissage automatique (Machine Learning) ou d’apprentissage profond (Deep Learning).

Repenser la question de l’extraction d’information

Si ces limitations ne peuvent évidemment pas être remises en cause, une inversion du paradigme de recherche d’information d’intérêt permet de repenser la question de l’extraction d’information à partir de données à faible effectif.

Il devient alors possible d’utiliser peu de données pour en dire beaucoup sur les observations. Par exemple, la synchronisation de l’apport de données avec des techniques de modélisation permet de construire une modélisation conjointe, intéressante pour valider les bases du futur modèle en même temps qu’on le construit, et étayer sans attendre des hypothèses riches sur les phénomènes observés. On peut également travailler avec des arbres d’hypothèses dynamiques dont les branches évoluent au fur et à mesure de l’arrivée des données et éclairent sur les hypothèses stables et celles qui ne le sont pas, et consolider ces résultats à l’aide d’analyses non-paramétriques généralisées.

Toutes ces informations peuvent alors être examinées par les experts métier pour analyse et interprétation par rapport aux observations.

En permettant de toujours définir et dimensionner l’ensemble des données à la question posée ou au problème à résoudre, cette approche se révèle particulièrement efficace en R&D où elle accélère le cycle collecte de données > prise de décision. Une façon adaptée, en quelque sorte, de répondre à l’adage selon lequel l’important n’est pas d’avoir beaucoup de données, mais les données dont on a besoin !

INWORKS-methode-et-outils-3

MÉTHODES ET OUTILS INWORKS

  • Modélisation conjointe
  • Arbres d’hypothèses dynamiques
  • Méthode des erreurs
  • Analyses non-paramétriques généralisées
INWORKS-applications-typiques-2c-gris

APPLICATIONS TYPIQUES

  • Organisation optimisée des conditions expérimentales
  • Hiérarchisation des essais restants en fonction de ceux réalisés
  • Détection avancée des risques « d’impasse technique »
  • Estimation probabilisée des performances futures atteignables

03.

Maîtriser les facteurs d’échelle

L’industrialisation et plus encore le passage en production sont des étapes-clés dont l’une des caractéristiques fortes est le changement d’échelle.

Les solutions définies en recherche et validées par le développement s’apprêtent en effet à subir les strictes conditions de l’industrialisation et de la production : standardisation des outils et des processus, automatisation poussée, nécessaire chasse aux coûts, cadence de production élevée, maintenance programmée…, toutes ces contraintes sont nécessaires pour permettre le changement d’échelle qui s’opère.

Pour toutes ces raisons, ces étapes-clés présentent aussi des risques.

Des manifestations bien visibles

En phase d’industrialisation, il n’est ainsi pas rare de découvrir des situations hautement indésirables :

  • Baisse de la fiabilité du produit, causée par exemple par des simplifications apparemment anodines du process de fabrication ou par la réduction des temps de cycle qui dégradent des phénomènes essentiels, en particulier d’ordre physico-chimiques. Le soudage (matériaux plastiques, métaux…), l’extrusion, la cuisson (agroalimentaire, ou de matériaux de la famille caoutchouc), ou encore la polymérisation sont des exemples de procédés dont il est souvent délicat de mettre au point l’industrialisation.
  • Performances difficiles à atteindre, voire inatteignables. Identifier rapidement les causes de ce type de difficulté devient ardu lorsque cette performance résulte de la bonne combinaison d’interactions non-explicites dans certaines étapes du process de fabrication.
  • Fabrication capricieuse, dépendante sans raison de situations particulières. Par exemple, la fabrication est possible sur une machine A mais devient instable sur une machine B pourtant exactement similaire et réglée de façon identique.

En production, d’autres types de phénomènes indésirables peuvent se manifester. Ils concernent surtout les défauts de fabrication, avec des modalités variées :

  • Apparition sporadique de produits défectueux, que le SPC n’arrive pas à prévenir. Ce type de situation engendre presque toujours la nécessité d’un contrôle à 100% en fin de ligne.
  • Variante du phénomène précédent, où une production parfaitement stable est entrecoupée de véritables épidémies de produits défectueux sans aucune raison identifiable.
  • Émergence soudaine d’un type de défaut qui n’a jamais été observé auparavant et que les analyses de causes racines ne parviennent pas expliquer.

Une analyse délicate

Des manifestations de ce type sont souvent délicates à traiter, car les méthodes et outils spécifiques de ces phases sont rarement bien adaptés à déterminer les causes racines réelles.

Un des symptômes caractéristiques de ces situations est l’identification de causes évanescentes. Une cause est dite évanescente lorsqu’elle apparaît impliquée à un moment donné, mais que son traitement correctif ne permet pas l’éradication de la manifestation indésirable : cette dernière réapparaît inexorablement, conduisant alors à la recherche d’une nouvelle cause potentielle. Il est à noter que des causes évanescentes nombreuses accroissent rapidement le risque de tomber dans une analyse circulaire (sur ce point, voir aussi 04. Traiter la complexité).

Les coûts engendrés par une industrialisation différée pour cause de mise au point trop délicate des processus industriels sont souvent élevés, sans parler des pertes indirectes, liées au retard de mise sur le marché des produits.

Il en est de même des rebuts, récurrents ou par épidémies, qui impactent directement la rentabilité de la production et engendrent de plus une non-qualité dont la maîtrise est également coûteuse, par exemple lorsqu’il est nécessaire de mettre en place un contrôle renforcé des produits, voire un contrôle à 100% dans les cas les plus critiques.

Une analyse causale étendue avec inclusion des facteurs exogènes se révèle généralement efficace pour identifier l’origine des désordres provoqués par des facteurs d’échelle mal maîtrisés. Cette approche peut aussi être complétée par une analyse de complexité, en particulier lorsque le couple produit-process met en jeu des phénomènes à l’équilibre souvent fragile comme les couplages mécanique-thermique ou les réactions physico-chimiques à cinétique rapide.

INWORKS-methode-et-outils-orange-2b

MÉTHODES ET OUTILS INWORKS

  • Analyse hiérarchique des dysfonctionnements
  • « Funnel analysis » / inclusion de causes exogènes
  • Méthode d’analyse jumelée sur données de tests ou d’essais
  • Analyse causale étendue
INWORKS-applications-typiques-2c

APPLICATIONS TYPIQUES

  • Détermination des causes racines avec mise en évidence des dépendances hiérarchiques
  • Identification et suppression des causes évanescentes
  • Préconisation de modifications process permettant de limiter ou d’éradiquer les dysfonctionnements
  • Définition de stratégies d’alertes, complémentaires des analyses SPC en production.

04.

Traiter la complexité

Comme l’a évoqué H. Simon dès les années 1960, la complexité est multiforme : organisationnelle, physique, logique, calculatoire… etc. Depuis ces travaux fondateurs, d’autres penseurs de la complexité se sont attachés à en caractériser les structures, les manifestations et leur perception, avec par exemple en France JL. Lemoigne et E. Morin, ou R. May aux États-Unis.

Cette polymorphie de la complexité et de ses manifestations est l’une des caractéristiques qui posent le plus de difficultés en termes de résolution de problèmes. Par quelle manifestation commencer ? Comment procéder ? Comment tester des hypothèses ?

Ces questions sont pourtant importantes, car au cœur des processus d’innovation lorsqu’il s’agit d’apporter des solutions à des situations difficiles.

L’influence des interactions cachées

Parce que la complexité repose souvent sur de multiples interactions cachées, parfois instables, la polymorphie des manifestations est presque toujours associée à la multiplicité des causes racines. Dès lors, les raisonnements d’analyse sont affectés et rendus d’autant plus incertains que le degré de complexité est important, sans pour autant, comme l’ont fait remarquer H. Simon et JL. Lemoigne, que l’on puisse réellement caractériser cette complexité. En effet, pouvoir tout connaître d’un problème dit complexe serait une forme de contradiction (puisqu’alors, il ne serait pas si complexe que prétendu), or il faudrait justement tout connaître du problème si l’on voulait en caractériser rationnellement la complexité.

Ces considérations expliquent que dans certains cas, les raisonnements standard d’analyse d’un problème ne suffisent pas à en déterminer les causes racines.

Ainsi, et même s’il s’agit a priori d’un principe de bon sens, la volonté sous-jacente de ces méthodes de catégoriser les informations pour mieux en organiser la collecte (cas typique des méthodes du type 6S, 8D (PSP), QQOQCP, A3… pour ne citer qu’elles) présente trois inconvénients :

  • D’une part, elles rendent difficile ou impossible l’intégration d’informations exogènes, ne rentrant dans aucune catégorie. Or, la complexité se manifeste notamment par la présence d’informations exogènes.
  • D’autre part, elles détruisent, par l’approche catégorisée, une partie de l’information contenue dans les relations, explicites ou cachées, qui peuvent exister entre plusieurs types de manifestations.
  • Enfin, elles ne permettent que difficilement la prise en compte de manifestations qui apparaissent contradictoires.

Il n’en reste pas moins que ces méthodes restent bien adaptées et efficaces dans une large majorité de situations.

Quand les méthodes standard ne suffisent plus

Dans certains cas particuliers, elles sont pourtant inadaptées, et l’un des symptômes de leur manque d’efficacité est alors l’apparition d’une analyse circulaire.
Les analyses circulaires sont des processus répétitifs dans lesquels des causes semblent être identifiées, sont testées, évaluées, puis rejetées, et à nouveau identifiées comme probables lorsque toutes les autres causes ont été à leur tour examinées puis rejetées. Parce que les analyses circulaires sont coûteuses en temps, en ressources, en budget, et qu’en sortir demande beaucoup d’efforts, elles entraînent souvent l’abandon pur et simple du processus d’innovation tel qu’initialement élaboré ou bien, dans le meilleur des cas, sa reconfiguration avec des ambitions réduites.

La question de la complexité est donc au centre névralgique de la prise de décision dans un processus d’innovation.

Afin de répondre à ces challenges, nous avons développé une technique d’analyse permettant de travailler sur les problèmes complexes, et tout particulièrement sur leurs formes récalcitrantes.

Cette approche résout deux points fondamentaux d’une analyse de complexité :

  • Tout d’abord, détecter le plus tôt possible l’incomplétude d’un problème et la caractériser. Le plus souvent, il s’agit de variables non tracées, de paramètres non mesurés, ou d’information manquante dans la description du problème. Détecter suffisamment tôt l’incomplétude d’un problème supprime le risque d’analyse circulaire et permet le cas échéant de refocaliser les efforts là où ils sont nécessaires.
  • Ensuite, élaborer une structure d’investigation rationnelle qui hiérarchise les hypothèses et guide prioritairement vers les actions (nouvelles mesures, tests, vérifications, essais particuliers…) qui ont la plus forte probabilité d’expliquer à raison tout ou partie des faits observés.

Ainsi contrôlée et guidée, la démarche d’analyse est conduite avec une pertinence accrue et les efforts réalisés pour construire la solution cherchée ont une bien meilleure efficacité.

INWORKS-methode-et-outils-3

MÉTHODES ET OUTILS INWORKS

  • Analyse de complexité
  • Analyse de causes racines
  • Élagage hiérarchique probabilisé
  • Analyse de circularité
INWORKS-applications-typiques-2c-gris

APPLICATIONS TYPIQUES

  • Problèmes récalcitrants aux méthodes du type 6S, 8D (PSP), QQOQCP, A3…
  • Optimisation paramétrique progressive
  • Couplage de modèles hétérogènes
  • Simplification de problèmes hyperparamétrés