Intelligence artificielle : peut-on la dompter sans empêcher de prompter ? 

Intelligence artificielle : peut-on la dompter sans empêcher de prompter ? 
Philippe Pradal s'adresse aux acteurs de l'IA réunis lors de l'AI Act Day, le 4 décembre 2023 à Paris.

Alors que le projet de « loi IA » était encore en discussion à Bruxelles, l’AI Act Day donnait le ton à Paris, le 4 décembre dernier. Associé à Datacraft, le collectif de réflexion et d’action Impact AI avait réuni un ensemble d’acteurs influents de l’intelligence artificielle (IA). Avec pour « prompt » principal, la mission de poser les jalons d’une IA aussi innovante et inspirante qu’éthique, durable et responsable.

L’IA, ça va vite, très vite. Et c’est même pour ça qu’on l’aime bien. Mais c’est aussi pour ça qu’on peut la craindre et qu’on pense à l’encadrer. Parmi les nombreux acteurs de l’intelligence artificielle (IA), réunis le 4 décembre au Hub de Bpifrance par le « think and do tank » Impact AI et par Datacraft, personne n’en doute : une IA responsable est une IA maîtrisée. La question est de savoir comment. Comment réguler l’IA – et notamment l’IA générative – sans empêcher l’innovation ?

“Précipitation temporelle”

Ce jour-là, le sujet était encore au cœur des discussions entre le Parlement européen et les Etats membres de l’Union européenne. Ensemble, ils ont depuis donné naissance à une première régulation, un « AI Act » fondateur qui pourrait permettre aux entreprises de développer des solutions utiles, vertueuses et sans danger. Seulement l’IA évolue plus vite que le droit. Alors que ChatGPT vient de révolutionner le paysage de l’IA en moins d’un an, la loi mettra, pour les plus optimistes, au moins deux ans à entrer en application. « Il y a précipitation temporelle », remarque le préfet Renaud Vedel, coordonnateur de la Stratégie nationale pour l’intelligence artificielle.


A écouter : [PODCAST] Le Seigneur des Anneaux : comment faire de l’IA une arme de création massive ?


Comment légiférer sur un objet en transformation permanente ? Comment un règlement voté aujourd’hui pourrait-il s’appliquer à une technologie dont on ne sait pas encore ce qu’elle sera dans deux ans ? « Il y a 20 ans, les logiciels changeaient de version tous les 5 ans, il y a 10 ans c’était tous les trois ans, avec l’IA aujourd’hui c’est tous les 6 mois, souffle Guillaume Leboucher, membre du comité exécutif de Docaposte et fondateur de la Fondation IA pour l’Ecole. Il y aura toujours des écarts, c’est notre métier, c’est l’innovation. Est-ce si grave ? » Ce n’est peut-être pas si grave, mais cela pose des questions. A commencer par la philosophie du droit à employer. C’est l’opposition « Civil law » / « Common law » qui ressurgit : si le droit exprimé par la loi est en retard sur la réalité, la jurisprudence peut-elle lui permettre de la rattraper ?

« Ne chargeons pas l’IA de tous les vices »

Le monde de l’entreprise, lui, n’attend pas pour expérimenter. « Aujourd’hui, si on ne teste pas, on ne sait pas ce qu’on fait », reprend Guillaume Leboucher qui veut « rapprocher le droit des experts » pour que les deux innovent ensemble. Alors que son compagnon d’estrade, Maxime Havez, directeur de la Data chez Crédit Mutuel Arkéa, « croit beaucoup dans les démarches de certification » pour suivre le rythme du changement : « Ça nous a permis de faire évoluer des process, des outils… » Dans ce monde VUCA de plus en plus VUCA, Guillaume Leboucher propose de s’inspirer d’un autre perturbateur que personne n’avait vu venir : « Pourquoi ne pas faire un collège scientifique comme pour le Covid ? »

Mais se poser la question du comment, c’est aussi se poser la question du pourquoi. Parce que l’IA générative soulève des enjeux sociétaux. « En un an, la multiplicité des questions posées est énorme », relève Franck Morel, avocat associé du cabinet Flichy Grangé. L’ancien conseiller du Premier ministre Edouard Philippe le rappelle : « Pour la première fois, une révolution technologique va toucher les cols blancs. » Selon lui, « un tiers de l’activité professionnelle en France est exposée à l’IA générative ».

La valeur-travail est interrogée. Il fallait un docteur en sociologie pour prendre un peu de recul : cette nouvelle technologie « altère-t-elle ou potentialise-t-elle l’essence du travail ? », se demande Yann Ferguson, professeur à l’université de Toulouse Jean Jaurès. « Une récente étude de l’OCDE a montré que la majorité des gens qui travaillent avec l’IA sont plus heureux qu’avant. Mais quand on observe l’étude en détail, ce sont ceux qui travaillent avec l’IA qui le vivent bien, pas ceux qui sont managés par l’IA. » Mais « ne chargeons pas l’IA de tous les vices », contrebalance le sociologue. « L’IA n’a pas de volonté propre. Ce n’est pas dans son projet de restreindre le travail réel. Si cela arrivait, ce serait celui d’une organisation. »

L’intelligence humaine est prête pour l’intelligence artificielle

Yann Ferguson pose la question du pouvoir d’agir : « Au travail, la valeur la plus fondamentale, c’est l’autonomie, c’est-à-dire ce qui me permet de faire ce qu’il faut pour que ça marche. Même à l’époque taylorienne, on savait bien que les ouvriers faisaient autre chose que ce qui était prescrit pour faire en sorte que leur travail soit bien fait. […] S’il y a liberté de jugement, il y a responsabilité. »

L’intelligence artificielle responsable, le sociologue la voit déjà naître en creux. Dans ce climat d’inquiétude, celui qui a été classé parmi les 200 Français les plus influents en IA en 2018 repère « un processus de socialisation de la technique ». « Nous ne sommes pas condamnés à une approche darwinienne de la technologie », assure-t-il. Dans cette tentative de réguler l’IA, « nous cherchons à plier la technologie pour qu’elle soit conforme à nos valeurs ». « J’y vois une maturité par rapport au développement technologique. Jusque-là, nous innovions et nous découvrions ensuite qu’il y avait un prix au progrès, pour ne chercher à y remédier qu’après. Aujourd’hui, nous sortons de ce schéma linéaire : nous cherchons à innover en pensant au prix que ça peut avoir. »

Yann Ferguson tient un discours peu entendu : il appelle à croire en la technologie. « Au moment de l’inauguration du premier avion à hydrogène dans dix ans, je n’imagine pas le PDG d’Airbus dire qu’il est la personne au monde qui croit le moins en sa technologie. C’est pourtant ce qu’a dit de ChatGPT, l’ex-PDG d’OpenAI Sam Altman ! Si on bâtit une technologie, c’est parce qu’on croit en elle et en sa dimension éthique. »

Malgré les avertissements de Sam Altman, l’utilisateur de base est ravi…”

Cette belle vision d’une IA responsable n’a pourtant pas suffi à convaincre tout le monde. Dans la salle, un homme se lève et surprend l’assemblée. Le maire de Nice Philippe Pradal trouve Sam Altman parfaitement « lucide ». « Pour moi, les IA génératives sont des chevaux de Troie de l’IA, elles ne sont pas la véritable IA », prévient le député des Alpes-Maritimes, membre de la Commission des Lois. Ce qui l’inquiète, c’est justement que l’IA n’inquiète pas. Ou pas assez : « C’est l’acceptabilité des IA qui m’interpelle. Malgré les avertissements de Sam Altman, l’utilisateur de base est ravi par les services rendus par l’IA… » Pour garder le cap, Philippe Pradal convoque Rabelais, les lois de la robotique d’Asimov, et puis l’affirme : « La méfiance que l’on a à l’égard de l’IA doit être généralisée. A toute la chaîne de valeur, pas seulement aux décideurs. »


A lire aussi : Nisreen Ameen : “Abandonner à l’IA une tâche qu’on effectue depuis longtemps n’est pas toujours facile”


C’est peut-être là le principal apport de la loi : pousser à se rassembler pour réfléchir et se poser des questions. C’est aussi le sens de la mission de Christophe Liénard, le président d’Impact AI qui n’a pas manqué de le rappeler : « L’IA générative ne se déploiera pas si elle n’est pas responsable. »

Si c’est une IA responsable qui doit s’imposer, c’est parce que c’est une innovation massive : elle concerne à la fois tous les secteurs d’activité de l’économie, mais aussi notre vie en société. L’IA se déploie partout dans le monde, sa chaine de valeur est globale, elle questionne notre rapport au monde. En tant que collaborateur, professionnel et citoyen nous sommes désormais impliqués dans un processus d’apprentissage qui nécessite d’articuler innovation et réglementation.

Fabien SeraidarianVice Dean Research & Knowledge Transfer, Scientific Director MBAs programmes, SKEMA Business School.

Tous ses articles

Kevin ErkeletyanResponsable éditorial chez SKEMA Business School

Tous ses articles

Fermer le menu