Vinod Aggarwal : “L’IA remet en question les fondements mêmes de l’humanité”

Vinod Aggarwal : “L’IA remet en question les fondements mêmes de l’humanité”
Vinod Aggarwal during his speech at the SKEMA Center for Artificial Intelligence seminar, 2024.

L’intelligence artificielle (IA) est une technologie si récente et innovante qu’elle soulève des questions de réglementation qui agitent toute la communauté internationale. Lors de sa visite à SKEMA Business School à l’occasion du séminaire du SKEMA Center for Artificial Intelligence (SCAI), Vinod Aggarwal, directeur du Berkeley APEC Study Center, a répondu aux questions de la directrice du SCAI, Margherita Pagani.

Pensez-vous que le principal danger de lIA réside dans les tensions économiques internationales qu’elle pourrait provoquer ? Ou est-ce que les dérives technologiques possibles représentent une menace plus importante ?

Vinod Aggarwal : Les deux menaces sont à considérer. Nous ne savons pas encore comment l’IA générative évoluera. Si nous sommes effectivement proches de l’intelligence artificielle générale, cela pourrait représenter une menace technologique majeure, entraînant des conséquences comme le chômage, qui pourraient être très perturbatrices. De plus, les tensions géopolitiques entre les États-Unis, la Chine et l’Union européenne (UE) continuent de croître. La menace géopolitique se greffe à la menace technologique. Une partie de ce phénomène réside dans le fait que l’IA est considérée comme ayant des usages doubles, notamment militaires. Plus l’IA développe des applications militaires prometteuses, plus elle devient un enjeu géopolitique. Cela complique la coopération entre les pays dans la gestion de l’IA, chacun cherchant à obtenir un avantage sécuritaire.

En dehors de l’UE, existe-t-il actuellement des réglementations régissant l’IA qui soient contraignantes pour les gouvernements ? Ou est-ce plutôt une sorte de main invisible la contrôle ?

Tous les pays tentent de mettre en place des régulations pour l’IA. La Chine a mis en place de nombreuses règles et réglementations, tout comme les États-Unis. La différence est que ces régulations ne sont pas aussi élaborées que celles de l’UE. Des efforts sont déployés pour engager des discussions internationales sur l’IA, mais il semble qu’il n’y ait pas encore de consensus complet sur la manière de réguler cette technologie ni sur les enjeux à considérer. Étant donné que la technologie est relativement récente au vu de ses dernières avancées, il est difficile de parvenir à un accord sur ce que j’appelle le méta-régime, c’est-à-dire les principes et normes sous-jacents à tout effort de régulation.

Dans ce cadre, les chercheurs peuvent avoir un rôle crucial en explorant les zones de consensus, ou ce que l’on désigne par accord cognitif ou consensus cognitif, concernant le méta-régime. Cela fournirait une base pour élaborer des règles et procédures qui seraient alignées avec ce méta-régime.

Cela semble assez complexe, car de nombreux acteurs sont concernés, tels que les industries, les universitaires, et différents États. Dans ce contexte, pensez-vous qu’il est réaliste de penser à une régulation mondiale de l’IA ? Les enjeux de la régulation de l’IA sont principalement éthiques, mais l’éthique peut varier considérablement d’une région du monde à une autre…

Je pense que cela dépend de la direction que prend l’IA. Nous avons déjà réussi à réguler des technologies telles que la technologie nucléaire, avec des traités sur les armes nucléaires entre l’Union soviétique et les États-Unis. Il est donc possible de trouver des accords même si les relations entre la Chine et les États-Unis deviennent plus conflictuelles. Mon ancien étudiant, Andrew Reddie, qui est désormais professeur, a écrit sur la possibilité de parvenir à des accords de contrôle des armements, y compris dans des secteurs comme la biotechnologie ou la guerre biologique. Le véritable enjeu réside dans le fait que si le débat se concentre uniquement sur l’éthique, les pays auront des points de vue divergents sur ce qu’ils considèrent comme éthique et sur les enjeux éthiques globaux, rendant la situation beaucoup plus complexe. En ce sens, l’IA est une technologie unique, car elle remet en question les fondements mêmes de l’humanité.

Afin de mettre en place une régulation efficace de l’IA, croyez-vous qu’il serait nécessaire d’accepter des limitations sur l’innovation ?

Certaines choses sont clairement inacceptables. La directive de l’UE sur l’IA met en évidence des risques extrêmement élevés. Nous ne voulons pas que l’IA soit utilisée pour discriminer des personnes, cibler des groupes minoritaires, exploiter certains individus, ou pour vendre d’une manière contraire à nos valeurs. En revanche, les gouvernements autoritaires ont une perspective très différente de celle des gouvernements démocratiques. Il existe une tension profonde entre les États autoritaires qui pourraient chercher à contrôler la technologie pour surveiller leurs citoyens, et les États-Unis, où nous cherchons à limiter la diffusion excessive d’informations pour éviter le suivi des personnes. Dans certains pays, le suivi des individus peut être justifié pour des raisons de « sécurité », mais cela peut également entraîner une discrimination des minorités.


A lire aussi: Yihyun Lim : « L’IA peut nous aider à visualiser le changement climatique et à lutter contre lui »


Cet entretien avec Vinod Aggarwal a initialement été publié en anglais.

Margherita PaganiDirectrice du SKEMA Center for Artificial Intelligence

Tous ses articles

Fermer le menu