, 29 octobre 2025

L’IA générative : entre méfiance justifiée et formidable chance à saisir

Olivier Blais est cofondateur et vice-président, Intelligence artificielle, chez Moov AI, une firme de Publicis Groupe spécialisée en intelligence artificielle (IA) appliquée. Il préside le Comité canadien de l’ISO/IEC sur l’IA et dirige l’élaboration des normes internationales sur la qualité des systèmes d’IA. Il est aussi coprésident du Conseil consultatif en matière d’IA, qui guide les décisions nationales relatives à l’éthique et à l’innovation technologique.

Cet article s’inscrit dans la collection « INTELLIGENCE ARTIFICIELLE ».
Par Olivier Blais


Ce texte a-t-il été écrit par un humain ou généré par une IA comme ChatGPT ou Gemini ? C’est une question banale en apparence, mais qui résume parfaitement toute l’ambiguïté du moment. À l’ère où les machines rédigent, créent, synthétisent et automatisent à une vitesse fulgurante, il devient de plus en plus difficile de faire la part des choses entre ce qui vient d’un cerveau humain… et ce qui provient d’un modèle génératif.

Techniquement, rien n’empêche l’IA générative d’exceller dans plusieurs sphères. Écriture, programmation, service à la clientèle, marketing, création visuelle : ces outils peuvent déjà automatiser une foule de tâches. Et soyons honnêtes : dans bien des cas, le résultat est bluffant.

Mais attention, cette puissance n’est pas sans risque. On ne peut pas simplement baisser la garde et faire comme si tout était réglé.

L’ILLUSION DE LA VÉRITÉ

Ces modèles sont entraînés pour générer du contenu agréable à lire, qui « sonne » vrai et professionnel. Mais ce vernis de crédibilité cache parfois des réponses qui, bien que convaincantes, sont complètement fausses. C’est exactement ce qui rend l’IA générative si délicate à manier : elle donne une impression de maîtrise, même quand elle se trompe.

Et à grande échelle, ce phénomène alimente une dynamique encore plus inquiétante : la montée en flèche de l’hypertrucage, des fausses nouvelles et d’un climat généralisé de méfiance.

REFUSER L’IA? UNE ERREUR STRATÉGIQUE

Alors, faut-il fuir ces outils ? Absolument pas. En fait, ce serait une grave erreur stratégique, surtout pour une économie qui, comme celle du Québec ou du Canada, cherche à devenir plus productive.

Soyons clairs : le personnel ou les entreprises qui utilisent peu ou mal l’IA sont déjà en train de se faire distancer. Le vieux dicton se confirme une fois de plus : ce n’est pas l’IA qui va remplacer les travailleuses et les travailleurs ; ce sont celles et ceux qui savent s’en servir qui vont remplacer les personnes récalcitrantes.

 

L’IA RESPONSABLE : UN GARDE-FOU NÉCESSAIRE

Cela dit, pour profiter des avantages de l’IA sans en subir les dérives, il faut mettre en place une approche encadrée et raisonnée – en un mot : responsable.

C’est drôle d’ailleurs… on ne parle pas d’ingénierie ou d’usines responsables aussi souvent que d’IA responsable. Pourquoi ? Parce que l’IA, contrairement aux autres disciplines, débarque dans notre quotidien à une vitesse et à une échelle jamais vues. Et surtout, elle est extraordinairement démocratisée. Il suffit d’un navigateur Web pour générer du contenu à la chaîne, faire du code, des vidéos, des montages sonores ou même des plans d’ingénierie.

C’est cette facilité d’accès qui rend l’encadrement éthique et sécuritaire absolument essentiel.

MISER SUR LES NORMES POUR REBÂTIR LA CONFIANCE

Afin de transformer cette méfiance généralisée en confiance constructive, il faut des leviers puissants. Parmi eux, les normes internationales jouent un rôle fondamental. C’est d’ailleurs un sujet qui me tient à cœur, en tant que président du Comité canadien de l’ISO/IEC sur l’IA.

Depuis cinq ans, notre Comité ISO/IEC SC 42 a publié plus de 34 normes propres à l’IA. Ces outils concrets et accessibles permettent aux organisations de structurer leur usage de l’IA de façon sécuritaire et responsable.

Par exemple, la norme ISO/IEC 42001 propose un cadre de gestion complet pour les systèmes d’IA en entreprise. Elle permet d’encadrer la conception, l’évaluation, le déploiement et le contrôle des systèmes, tout en respectant les valeurs humaines et les obligations légales. Une autre norme, ISO/IEC 25057, aide à évaluer la qualité des systèmes d’IA – un élément crucial quand on parle de sécurité, de performance ou d’éthique.

LE RÔLE CLÉ DES ORDRES PROFESSIONNELS

On néglige trop souvent un autre acteur pourtant clé : les ordres professionnels. Que ce soit dans les domaines du droit, de la santé, du génie ou de la comptabilité, ils sont en effet très bien placés pour guider une adoption intelligente et sécuritaire de l’IA.

Pourquoi ? Parce qu’ils connaissent à la fois les risques propres à leur domaine et les exigences éthiques qui s’y appliquent. Ils sont donc en mesure de recommander les meilleurs usages, de proposer des lignes directrices concrètes, et même de former leurs membres à l’utilisation adéquate de ces nouveaux outils.

Imaginez une ingénieure ou un ingénieur qui utilise l’IA pour générer des simulations ou bien pour créer des plans sans en comprendre les limites. Ce n’est pas seulement risqué sur le plan professionnel, mais aussi pour la société tout entière.

UN PARALLÈLE AVEC LE CLOUD

Pour finir sur une note optimiste, rappelons-nous que cette peur du changement n’a rien d’inédit. Il y a 10 ou 15 ans, l’infonuagique – le fameux cloud – suscitait une méfiance généralisée. On la jugeait alors trop risquée, trop opaque et trop incontrôlable.

Mais avec le temps, des normes comme ISO/IEC 27001 sur la sécurité de l’information ou ISO/IEC 27701 sur la protection des données personnelles sont venues encadrer ces services. Et les ordres professionnels ont emboîté le pas, jusqu’à en faire une technologie banalisée, voire encouragée dans la plupart des secteurs.

CHANGEMENT DE PARADIGME

Oui, l’IA générative est puissante, rapide et impressionnante. Mais elle peut aussi être trompeuse, partiale et risquée.

C’est un couteau suisse : tout dépend de la personne qui s’en sert… et de la façon dont elle l’utilise.

Plutôt que d’en avoir peur, apprenons à l’employer avec discernement. Encourageons une adoption responsable, fondée sur des normes solides, un cadre législatif flexible et une implication active des ordres professionnels.

Peut-être qu’un jour, quand on lira un texte comme celui-ci, on ne se demandera plus s’il a été généré par une IA, mais seulement s’il est utile, juste et pertinent.

 

Références utiles

 

Retrouvez tous les articles dans la revue PLAN d’AUTOMNE 2025

Cet article est inclus dans :

Voir aussi