Accéder au contenu principal

C'est d'actualité…

IA générative au travail : comment conjuguer efficacité et éthique ?

Début octobre, Albin Blanchère a animé la toute première formation sur les usages de l’Intelligence Artificielle pour ARTES. Son but : démystifier l’IA, en comprendre le contexte et être au fait des dernières les avancées pour imaginer une utilisation éthique de ces nouveaux outils. « L’objectif de cette formation est de mettre du sens dans nos pratiques, pas juste d’apprendre à faire des prompts », glisse notre intervenant au détour d’un café. Nous en avons profité pour l’interroger sur le contenu de son module et sur cette révolution technologique sans précédent.

Par Elliott Bureau
le 27 octobre 2025
(lu 178 fois)

Est-ce que l'IA va nous remplacer ?

(Rires)

L’Intelligence Artificielle est un outil qui va remplacer les métiers où il y a peu de valeur ajoutée humaine : tout ce qui sera répétitif, duplicable. Elle ne va pas directement impacter notre créativité, notre démarche, notre intention. Les spécialistes du sujet s’accordent à dire que l’on ne connaît pas encore les métiers qui vont être créés. Ce qui est certain, c’est que nous sommes au début d’une révolution d’un point de vue technologique, sociétal, culturel, et au niveau de nos usages professionnels… J’utilise souvent la métaphore du Far-West : il faut imaginer un terrain vierge avec des mines d'or cachées à gauche à droite. Il y aura ceux qui vont penser à fabriquer des pioches, ouvrir un magasin et faire fortune là-dessus, d’autres qui vont chercher à innover, creuser, trouver de l’or... Et ceux qui ne vont pas savoir prendre le train en marche et qui, effectivement, resteront sur le carreau. Pour moi, on parle d’une question beaucoup plus complexe et tentaculaire que celle de notre simple remplacement. L’enjeu, c’est plutôt comment accompagner nos sociétés dans cette transition ? Nos gouvernements vont-ils vraiment se saisir de la question, réaliser le travail préparatoire afin de laisser le moins de gens possible au bord de la route ? Pour le moment, ce n’est pas le cas.

Il est difficile d'avoir une réponse ferme à la question du remplacement par l’IA. Énormément d’enjeux doivent être pris en compte. Oui, des gens risquent de perdre leur travail, mais il est difficile de mettre cela seulement sur le dos de l’IA. Cela reviendrait à la même chose de dire que, dans les années 2000, des gens ont perdu leur travail à cause de Photoshop. Ce serait absurde d’affirmer ça. Ce qui est sûr, c’est que nous sommes face à un nouvel outil qui va changer notre manière de travailler.

 

Y avait-il ces mêmes craintes à la sortie de Photoshop ?

Oui, de la même manière qu’un maréchal-ferrant s’est inquiété suite à l’arrivée des premières voitures ou que l’on s’est questionné avec l’invention de l'électricité par Edison… La différence fondamentale avec aujourd’hui, c’est que l’IA va nous obliger à nous questionner sur ce qui fait notre humanité. L’intelligence Artificielle est capable d'imiter beaucoup de choses, nous allons donc être obligés de questionner notre place dans le processus de création. Tant que nous ne prendrons pas le temps de réfléchir collectivement, en société, sur cette question-là, il va être très difficile de faire cette transition en paix.

 

Tu disais que l’IA va changer nos manières de travailler sur les tâches chronophage et avec peu de valeur ajoutée…

Oui, ce sont des tâches sur lesquelles la machine peut facilement nous remplacer. On le voit déjà de manière très vertueuse dans le secteur de la santé depuis quelques années maintenant avec Watson, la grande IA médicale. Elle permet d’asseoir les diagnostics des médecins en créant un second diagnostic. C’est aujourd’hui complètement intégré au travail des spécialistes dans tous nos CHU, nos hôpitaux, nos cliniques... Il y a d’autres domaines, comme le milieu judiciaire, où le travail très factuel de référence à des textes écrits laissant peu de place à l'interprétation peut facilement être délégué à l’IA. Globalement, si certains métiers s'y prêtent très bien et sont actuellement en transition, pour d’autres, ce sera plus délicat. Il risque d’y avoir des enjeux sociaux plus fort dans d’autres secteurs. En France, nous avons un rapport particulier à la création, par exemple… Nous sommes le pays du droit d'auteur, donc le sujet de la création par l’IA va vite être pris à fleur de peau. C’est en tout cas une question très clivante, il n’y a pas de demi-mesure entre ceux qui sont curieux et enthousiastes et ceux qui sont réfractaires. Et quelque part, je trouve intéressant que des personnes qui à première vue détestent l’IA s’inscrivent à ce genre de formation pour comprendre. Qu’ils en aient peur, ou au contraire qu’ils y trouvent un côté euphorisant, ce module est construit pour aborder tous les tabous autour de cet outil, savoir par quel bout le prendre. Remettre l’église au centre du village, en quelque sortes.

 

Tu penses qu'il faudrait apporter plus de pédagogie sur l’IA ?

Je pense qu'il faut poser des questions, même si elles ont l'air compliquées. La première que tu m’as posée - « l’IA va-t-elle nous remplacer ? – elle est volontairement provoc, mais elle est rarement abordée comme une question de fond. On va y répondre en disant que l’on n'est pas dans Terminator, que l’IA ne va pas nous remplacer demain… Mais à aucun moment on ne se questionne sur ce qui pourrait être un drapeau rouge. Où est-ce que l’on pose le juste milieu ? Malheureusement, on tombe souvent dans les discours extrêmes qui soit n’ont pas de sens, soit ne sont pas constructifs. Pour le coup, ma formation a pour but de regarder tout cela de manière critique.

 

Justement, comment se déroule cette formation ?

Elle a lieu sur trois journées, la première étant axée sur la compréhension du fonctionnement de l’IA générative. L’objectif est de lever énormément de tabous, notamment cette sorte de pouvoir mystique de l’IA qui donne l'impression à beaucoup d’avoir à faire à un pseudo humain qui réagit avec des émotions, qui nous comprend, et surtout qui est neutre. On va en premier lieu ramener l’IA à son état d'outil de synthèse : elle ne fait que nous donner la réponse moyenne en fonction de la question qui a été formulée… C’est quelque chose de très factuel, très mécanique… Le résultat est rapide, mais il n’y a rien de magique là-dedans ! Par contre, ce qu’il faut comprendre, c’est que si on ne lui dit pas précisément ce que l'on attend d'elle, elle nous répondra quelque chose de moyen, sans plus. Là-dessus, j’aime bien faire le parallèle avec l'enfant de 5 ans : si on lui dit de ranger sa chambre, il va peut-être fermer un tiroir, mais le lit ne va pas être fait et les vêtements ne seront pas triés. Si on ne lui dit pas : « range tes vêtements, fais ton lit, ferme ton tiroir », il ne le fera pas. L’IA, c'est la même chose. Sur la première journée, j'essaie de le faire comprendre en expérimentant différents modes de langage, et en comparant les nuances de réponses obtenues en fonction de la question posée.

Sur la deuxième journée, on touche plus à la génération d’images, de musique, de voix, de vidéo ou encore de PowerPoint avec Gama : une solution automatisée orientée sur l'administratif qui peut très vite parler aux participants... Je vais leur montrer plein d'outils types, et surtout leur expliquer où on en est aujourd'hui. Je leur livre une mise à jour des dernières avancées qui ne sera donc jamais la même d’une formation à l’autre. Il y a une blague qui circule dans le milieu : « quand on aime l'IA, c'est Noël toutes les semaines ». C'est totalement vrai, et en ce moment, c'est même Noël deux fois par semaine. Les standards sont constamment chamboulés. Il est donc important montrer aux participants ce que le marché est capable de produire à l’instant T. Je leur rappelle aussi que Chat GPT est sorti il y a cinq ans, et qu’à l’époque le grand public n’y connaissait rien. Aujourd’hui, c’est incontournable. Il est intéressant de constater la vitesse à laquelle la technologie avance pour pouvoir se projeter lors de la troisième journée de formation. On va se demander quelles pourraient être les évolutions de son métier dans un an, cinq ans, dix ans… L’idée, c’est de remettre du sens dans tout ça. La première partie de la dernière journée est consacrée à l'éthique de l'IA : le traitement des données, la vie privée, l'identité numérique mais aussi l’impact écologique. On va traiter tous les biais, et identifier les nombreux angles morts liés à son utilisation… Comprendre le contexte va nous permettre de rendre notre utilisation éthique. Cela peut passer par la mise en place d’un usage local, déconnecté d’internet pour réduire l'entraînement et la fuite des données, par exemple. Je vais vraiment leur présenter les solutions qui existent, leurs limites et les compromis à faire afin qu’ils puissent mettre la barre là où ils le souhaitent.

 

Au vu de tout ce que tu exposes, tu estimes qu’il est primordial de se former dès aujourd’hui aux usages de l’IA ?

Pour moi, la réponse est encore plus radicale que ça. Si ça ne tenait qu’à moi, cela relèverait de l'enseignement standard, il faudrait même probablement des cours citoyens là-dessus. Au Canada, par exemple, le gouvernement réfléchit à offrir un abonnement Chat GPT + à sa population pour l’armer face à la transition. C’est intéressant car en France, les décisions de l’éducation nationale ne vont pas du tout dans ce sens-là. Des jeunes vont rentrer sur un marché du travail qui aura déjà massivement adopté l’IA, et ils n’y auront pas été formés. Le décalage risque d’être gigantesque, je m’en rends compte en intervenant dans certaines écoles supérieures : certains étudiants sont entrés dans les cursus en fantasmant un métier qui aura complètement changé quand ils rentreront sur le marché. C’est le cas dans la communication, le marketing, le tourisme, le design… L’IA apporte des outils facilitateurs, accessibles moins coûteux et qui évoluent très vite. Même s’ils sont loin d’être parfaits, il est certain qu’ils vont être intégrés par l'industrie.

 

Tu penses que les étudiants français ne seront pas assez armés ?

C'est certain. Il faut aussi additionner à ça la fracture numérique et l'appétence que l’on peut avoir avec ces outils-là. Certains ont pu faire des études de design et ne sont pas forcément à l'aise avec l'IA. Ça peut ne pas les intéresser, et je le comprends. Le problème se situe plutôt au niveau de l’école ou de l'organisme de formation qui, sur cette thématique, n’est pas en mesure de donner la même base solide à tous les étudiants. On parle pourtant de quelque chose de très sommaire, faire en sorte qu’ils entrent au moins sur le marché du travail avec les clés. Pour le moment, nous n’y sommes pas du tout. Pourtant, les études montrent que 77 % des étudiants utilisent ChatGPT à l'école juste pour leurs devoirs. Mais on ne les forme pas à comprendre et réfléchir sur les questions liées au développement de l’IA. Et en même temps, à titre de comparaison, moins de 20 % des enseignants utilisent ces outils. Il y a un réel problème générationnel et culturel.

Nous ne sommes pas prêts, en France, à mener le combat de la fracture du travail que va créer l'IA. Une solution technique entre sur le marché, va rendre obsolète une quantité gigantesque de métiers, mais nous n’avons pas envie de voir le problème. Personnellement, ce n’est pas la révolution technologique en elle-même qui m’inquiète, mais plutôt : que va-t-on faire des gens qui vont rester sur le carreau ? Comment pourront-ils se rendre utiles ? Comment les valoriser ? Je pense que l’utilisation de l’IA peut être vertueuse à partir du moment où elle est accompagnée. Cette révolution va forcer notre société à redéfinir notre rapport au travail. Tout est à réinventer.

 

Pour contrebalancer, tu disais aussi que l’IA allait créer de nouvelles opportunités…

Oui, mais elles ne sont pas encore connues, et c’est pour ça qu’il est très difficile de se projeter. Ce qui est sûr, c’est qu’il ne faut pas croire aveuglément que cela va bien se passer. Autant on voit très bien les métiers qui vont disparaître, et ça, c'est anxiogène ; autant on ne voit pas encore les métiers qui vont être créés, et quelque part, c'est anxiogène aussi. Pour moi, l'accompagnement, la formation, la sensibilisation, la standardisation de l'outil et son accessibilité à tous permettra, au moins, d’initier le travail de réflexion individuelle sur comment se réinventer. Il faut bien avoir en tête que la mécanique est enclenchée et qu’il n’y a aucune raison que l’on parte à contre-courant. Il va falloir faire avec, et donc mettre les moyens nécessaires pour que les travailleurs ne paient pas le prix fort.

 

Tu penses que l’on sous-estime encore l’ampleur de la révolution ?

Oui, et je ne suis pas le seul à le penser. Quand on regarde les sommets, les évènements organisés sur l’IA, tous mettent en avant l’innovation, et uniquement l'innovation. En France, les quelques initiatives publiques que l’on voit jusqu’ici sont principalement des soutiens technologiques pour faire briller le pays. Mais à aucun moment, on ne va soulever le problème sociétal derrière l'arrivée de cet outil sur le marché. Rien n’est fait pour soutenir une dynamique d'accompagnement de la population. Il faudrait pourtant que l’on commence à penser cette transition dès à présent.

 

On a beaucoup parlé de problèmes sociétaux, il y a aussi les enjeux écologiques liés à l’IA…

La question de l’impact écologique de l’IA est encore très floue pour le moment. Il existe, c’est certain, mais sa quantification est variable. D’un jour à l’autre, on a des estimations différentes en fonction, notamment, de la transparence des chiffres qui sont donnés. Les Gafam en communiquent certains qui ne sont pas forcément cohérents les uns avec les autres, donc on essaie de faire des moyennes. Et puis, il s’agit aussi d’un secteur qui bouge très vite : les composants technologiques sont en permanence optimisés, et donc de moins en moins gourmands. Les modèles sont de mieux en mieux entraînés pour consommer moins de ressources, on peut donc penser que l’impact écologique par requête tend vers le bas. En formation, je guide les participants pour choisir un modèle qui correspond à leurs besoins pour une utilisation éthique de l’IA.

 

Tu donnes donc des conseils sur-mesure ?

J'essaie de donner des repères pour que chacun se fasse sa propre opinion. Il est très difficile, même impossible d'être catégorique sur le sujet. C’est d’ailleurs ce qu’explique le Shift Project de Jean-Marc Jancovici, qui a récemment publié un rapport sur la consommation de l'IA. Effectivement, ils disent que c'est énergivore, mais encore une fois, tout dépend des usages, des infrastructures que l'on met autour… Et au regard de quoi ? L’impact écologique est à contrebalancer avec les évolutions et les progrès que permettent l'intelligence artificielle dans le domaine de l'optimisation énergétique. Il y a certaines choses qu'on nous n’aurions pas trouvé sans l’IA parce que nous n’avons pas la capacité de calcul et de réflexion pour le faire. C'est donc une question beaucoup plus complexe et nébuleuse que ça. Il faut se positionner de la même manière que quand on utilise la voiture : on sait qu'on a un impact, donc on réfléchit au trajet que l’on fait. Est-ce qu’on pourrait le faire de manière plus responsable ? C'est exactement la même chose pour l'IA.

 

A-t-on, selon toi, déjà connu des révolutions aussi importantes ?

Oui, Internet en a été une, par exemple. Mais nous n’avons pas encore connu de révolution avec un tel impact social. L’IA est un phénomène qui va interroger jusqu’à notre humanité. Elle va rebattre les cartes, questionner nos fondamentaux. Cet outil sait nous imiter à la perfection, c’est un miroir de ce que nous sommes, et nous n’aimons pas avoir quelque chose qui nous ressemble. Nous aimons les certitudes, notamment celle d’être un être unique, capable de créer, avec des émotions... Alors, quand on se rend compte qu'on est ému par quelque chose qui a été généré par une IA, parfois, ça peut devenir compliqué. Au Japon, où la population a un rapport différent avec la technologie, la question d'actualité est de reconnaître ou non un couple entre un humain et une IA. Je ne dis pas que c’est une bonne chose, je questionne simplement les différences relationnelles que l’on peut avoir avec cette technologie. L’IA n’est qu’une imitation de nous, mais elle le fait suffisamment bien pour nous toucher et créer l'illusion. Un adolescent qui ne fait pas la différence entre une vraie vidéo et un contenu généré par l'IA, c’est évidemment problématique. Et ça arrive trop souvent.

 

Que dirais-tu à quelqu’un d’extrêmement réfractaire à l’IA pour le convaincre de l’intérêt de ta formation ?

Qu’il faut vraiment voir l’IA comme un outil de moyenne. On peut le comparer à la saisie automatique des téléphones, quand on écrit un SMS et qu’il essaie deviner le mot suivant. Par exemple, dans un pays occidental comme le nôtre, si je demande à l’IA de choisir une couleur, elle va me répondre le bleu car en moyenne, c’est le bleu qui est choisi en premier dans nos pays. Garder ça en tête, c’est une manière de se réapproprier un rapport d'utilisateur à outil. D’un coup, tout redevient très factuel.

Tout dépend en fait des raisons pour lesquelles une personne est réfractaire. Si elle en a peur mais qu’elle voit le potentiel, je pense que la formation pourra répondre à ses questions. La dernière fois, il y avait quelqu’un qui n’était pas à l'aise avec l'outil. Elle ne voyait pas trop comment elle allait l'intégrer dans ses habitudes de travail, mais par contre, la formation l'a énormément intéressée. Elle lui a permis de pratiquer, d’explorer… C'est finalement peut-être à cette personne-là qu’il faudrait demander comment cette formation a pu la brancher et ce qu’elle a pu lui apporter.

 

Tout à l'heure, tu disais qu'il y avait des révolutions toutes les semaines... Ça veut dire que la formation d’aujourd'hui ne sera pas la même dans six mois ?

La base restera la même. L'intérêt de cette formation est de mettre en place des usages qui vont être vertueux et durables. Comme c'est Noël toutes les semaines, on peut avoir le sentiment qu’on ne peut pas suivre, que ça change tout le temps et que l’on n’y arrivera pas si on n'est pas geek. C'est assez vrai, mais si on a un cadre d'utilisation précis, c’est à dire : comment construire un prompt de base ; sur quoi faut-il être vigilant tant sur le prompt que sur les réponses ; comment je dois structurer mes échanges avec l’IA… Là-dessus, peu importe les modèles qui sortent, l’outil fonctionnera toujours pareil. Par exemple, si je génère des images, je peux facilement avoir des minorités qui ne seront jamais représentées. En demandant à l’IA d’illustrer un chef d'entreprise dans un bureau, il va générer l’image d’un cinquantenaire avec des cheveux blancs et en costard. Sans instruction plus précise, il ne représentera pas une femme, un asiatique ou un afro-américain, parce qu'il est entraîné sur des modèles biaisés. Si on est prudent par rapport à ça, on va utiliser l’IA dans un cadre plus raisonné, plus éthique. Et il en va de même sur l'impact écologique ou sur la vie privée. Ces points de vigilance, les participants pourront les appliquer un mois ou un an après la formation. Les modèles auront peut-être évolué, mais les enjeux seront les mêmes. Voilà pourquoi la formation ne va pas être dépassée du jour au lendemain. Hormis l’état des lieux à l’instant T, le déroulé sera le même. Il n’a pas de raison de bouger.

 

Jusqu'où tout cela ça va aller, selon toi ?

C'est une question compliquée… En fait, on commence déjà à atteindre les limites des modèles d’IA générative. Ils ont été entraînés sur tout ce qui était disponible, et on se retrouve en ce moment avec un problème de dégénérescence, c'est-à-dire que l’IA va commencer à s'entraîner sur ce qu'elle produit. Là-dessus, c’est un peu comparable à la consanguinité : à force de se nourrir de ses productions, la moyenne des résultats de l’IA va commencer à devenir une sorte de gloubi-boulga. Des tests ont été fait sur des modèles qui ont été enregistrés et réenregistrés, et on se retrouve avec quelque chose de déformé…

 

Un peu comme un téléphone arabe ?

Oui, on peut le voir comme ça, et c’est un vrai problème à gérer…

Après, on peut essayer d’étirer la projection. Si on le fait de façon assez sceptique, on va imaginer une grosse bulle financière qui finira par exploser, avec une énorme crise et de grandes entreprises qui vont fermer. C’est possible, parce que l'intelligence artificielle n'est pas bénéficiaire. Elle ne fait qu’engranger des financements, mais ramène jamais l'argent. Les marchés financiers ont déjà soulevé ce problème et alertent : on parle d'une bulle qui est 17 ou 18 fois supérieure à celle de la crise des subprimes, et c'est exponentiel. Il ne faut pas exclure cette perspective, mais je ne suis pas certain que cela détruira l'innovation technologique.

La continuité logique, c'est l'association de l’IA à la robotique. Dernièrement, on a eu le premier robot de figure IA qui a été présenté. Il s’agit d’un assistant de ménage à la maison, capable de comprendre son environnement et d’y agir : plier des vêtements, laver la vaisselle, etc. Il est capable de faire du travail de finesse, c’est assez impressionnant. On en est encore aux débuts de l’IA, et on nous parle déjà de mettre des robots chez nous... Je ne sais pas si c'est une bonne mauvaise chose, par contre le constat est là. Quand on cumule un peu tout ça, on a l’impression de se rapprocher de la science-fiction. La littérature a d’ailleurs exploré ça en en long, en large et en travers en nous mettant en garde. Et malgré tout, on se dirige dans cette direction. Les voitures autonomes nous étaient prédites depuis longtemps : on les a. L’étape suivante dont on parle dans la science-fiction, c’est ce que l’on appelle l’IA générale : le moment où la technologie va dépasser l’intelligence humaine. Là, c’est un point de non-retour. J’utilise souvent la métaphore de la fourmi : quand on la prend dans notre main, elle ne comprend absolument pas ce que l’on est en train d’exprimer. Nous sommes dans une autre dimension. Avec l’IA générale, on serait à la place de la fourmi. Nous n’aurions pas la capacité de pouvoir la suivre. Les scientifiques sont encore très divisés à ce sujet. Certains disent que ça n’arrivera jamais, d’autres que ce sera le cas dans cinq ans. Ce qui est sûr, c’est qu’il y a beaucoup d’enjeux derrière… Maintenant, libre à nous de mettre les garde-fous qu’il faut.

Ce qui est difficile, c’est que la science-fiction n’a jamais été positive à ce sujet. Je suis convaincu que nous avons besoin d’un schéma narratif positif et optimiste dans la littérature et le cinéma. Il existe des futurs radieux, mais on ne nous les projette pas. Peut-être que cela se vend moins bien ? Narrativement, c’est sans doute moins intéressant, même si ça existe. On peut citer le Solar Punk, par exemple, qui est l’opposé du Cyber Punk. Ce sont des essais plus optimistes, mais ils restent beaucoup trop rares. C’est à mon sens en partie à cause de ça que l’on voit le futur noir avec l’IA. Ça alimente nos craintes.

--

À consulter, nos formations liées à l'Intelligence Artificielle :

Maîtriser les bonnes pratiques en matière d'IA génératives : usages critiques et appliqués pour gagner en efficacité et pertinence
Créer des textes percutants avec l’IA générative
S'initier à l'IA générative avec les logiciels Photoshop, Illustrator, Firefly et Midjourney - Cycle spécialisé