
Par Léa Laref Étudiante en MBA Digital Marketing & Business et Chargée de Marketing & Communication chez ohmycad, partenaire Dassault Systèmes.
Dans le cadre de ma thèse professionnelle, je m’intéresse à un tournant historique pour nos industries : l’intégration de l’intelligence artificielle générative dans les outils de CAO. Travaillant quotidiennement au contact des utilisateurs de SOLIDWORKS chez ohmycad, je constate que si l’innovation fascine, elle soulève une interrogation majeure : celle de la confiance.
Dassault Systèmes a récemment frappé fort avec le lancement d’Aura, son IA intégrée. Mais un obstacle psychologique et technique persiste : l’effet « Boîte Noire ». Pourquoi un ingénieur hésite-t-il à déléguer ses calculs à une machine ? Et comment, nous, acteurs du marketing et de la tech, pouvons-nous accompagner ce changement ?
1. Le paradoxe de l’IA Aura : Puissance technologique vs méfiance humaine
Le passage de la conception traditionnelle à l’ingénierie augmentée n’est plus une théorie. Avec Aura, SOLIDWORKS permet d’automatiser des tâches complexes de conception générative. Cependant, pour un ingénieur, dont le métier repose sur la responsabilité et la précision extrême, l’opacité des algorithmes est un frein.
Qu’est-ce que l’effet « Boîte Noire » ?
On parle de boîte noire lorsque l’utilisateur perçoit l’entrée (ses contraintes techniques) et la sortie (le design généré), mais ne comprend pas le cheminement logique de l’IA. Contrairement à un arbre de décision classique, le Deep Learning d’Aura fonctionne sur des réseaux de neurones complexes.
- Le biais de contrôle : L’ingénieur a besoin de valider chaque étape pour garantir la sécurité.
- La responsabilité : En cas de défaillance d’une pièce, qui est responsable ? L’humain ou l’algorithme ?

2. Les communautés d’experts : Le système d’homologation humaine
Ma thèse repose sur une hypothèse centrale : dans un secteur B2B aussi complexe, la confiance se construit par la preuve sociale. Face à l’opacité de la machine, l’ingénieur se tourne vers ses pairs.
Les communautés (forums, Reddit, YouTube) agissent comme des « traducteurs » de la boîte noire. Le rôle des « Power Users » est ici crucial pour transformer une technologie perçue comme opaque en un outil maîtrisé par le collectif
3. Méthodologie : Au cœur du terrain avec 10 interviews à venir
Pour valider ces théories, ma démarche de recherche s’appuie sur une étude de terrain rigoureuse que je mène actuellement. Mon objectif est d’interroger un panel de 10 répondants stratégiques : ingénieurs, managers et experts de chez Dassault Systèmes.
Ce que cette enquête va explorer :
- L’expérience concrète de la boîte noire : Identifier précisément ce qui bloque l’utilisateur lors de l’usage d’Aura.
- Le circuit de l’information : Où les ingénieurs vont-ils chercher la validation technique lorsqu’ils doutent de l’IA?
- L’écart entre marketing et réalité : Comparer les promesses technologiques avec les besoins réels observés chez les clients d’ohmycad.
Conclusion : Vers l’ingénieur augmenté
L’IA Aura n’est pas là pour remplacer l’expertise humaine, mais pour la décupler. Mon travail de thèse démontre que la technologie seule ne suffit pas : c’est l’écosystème humain (les communautés) qui permet de transformer la méfiance en performance. L’enjeu est de passer d’une communication descendante à une stratégie d’influence technique basée sur le partage communautaire et la transparence.