Intelligence artificielle : « Il faut développer une culture de l’éthique »


Economie


17 février 2023

Le deuxième Festival mondial de l’IA de Cannes (WAICF) vient de se terminer au Palais des festivals. À côté des présentations d’innovations, il a aussi été question d’éthique.

Pour atteindre son objectif de devenir la référence en matière d’intelligence artificielle, le WAICF propose des débats et des conférences de premier plan, comme ce fut le cas vendredi 10 février sur le sujet de l’éthique. En à peine plus d’une demi-heure, les trois intervenants de la table ronde «  IA et éthique : mettre en action les principes  » ont réussi à faire le tour des grands enjeux du recours à l’IA pour les entreprises : Muriel Barnéoud, directrice de l’engagement sociétal du groupe La Poste, Romain Lamotte, associé KPMG France, responsable data et analyses, et Éric Salobir, président du comité exécutif de la Human Technology Foundation, think tank qui travaille sur l’impact des technologies. « Cette démarche autour de l’IA éthique s’inclut dans notre plan stratégique c’est-à-dire un engagement pour la promotion d’un numérique éthique, inclusif et frugal », a assuré Muriel Barnéoud. « Il s’agit d’un élément essentiel de notre business et de notre capacité à nous différencier  », a ajouté la responsable RSE, qui a présenté les grandes lignes de la Charte pour une intelligence artificielle de confiance du groupe La Poste. Mme Barnéoud a souhaité attirer l’attention sur les IA pré-entraînées et les risques de biais qui les accompagnent. « C’est vraiment le sujet qui est devant nous. Ces IA pré-entraînées sont très pratiques parce qu’elles permettent d’économiser beaucoup d’énergie. Cela coûte cher d’entraîner une IA et cela consomme beaucoup d’énergie. Mais l’ennui c’est que vous ne savez pas ce qu’il y a dedans. Il faudrait une sorte de carte d’identité de l’IA indiquant ce qu’il y a à l’origine, ce pour quoi elle a été utilisée… ». Pour Romain Lamotte, cette problématique de l’éthique et de l’IA est «  trop souvent improvisée au sein des entreprises  ». Il souhaite «  sensibiliser sur la nécessité d’anticiper ces questions-là  ». Il est pour lui important de veiller à ne « pas arriver à certaines situations où les utilisateurs n’ont plus de libre arbitre », d’autant que «  des entreprises embarquent sans le savoir des briques d’intelligence artificielle  ».

« Bonnes questions »

Le robot Sophia a reçu une "base d’éthique" lors de sa conception qu’il enrichit depuis à chaque échange - ©S.G

Éric Salobir estime que « nous sommes dans ce moment où les entreprises doivent se poser dès le début quelques questions clés. Il faut développer une culture de l’éthique. C’est aussi la responsabilité des donneurs d’ordre, il faut embarquer tout le monde. Une charte, c’est la moitié de la solution. L’autre moitié, c’est de se donner les moyens qu’elle soit appliquée ». Il est convaincu que « l’éthique n’est pas un censeur, qu’elle n’est pas un frein au business et qu’elle est là au contraire pour renforcer le business en renforçant les produits  ». L’enjeu pour lui est de transposer par secteur d’activité les grands principes éthiques entourant l’IA, notamment ceux de l’Union européenne (voir également interview ). « Quand on travaille avec le groupe La Poste, cela donne quelque chose. Quand on travaille avec une banque ou une compagnie d’assurance, cela donne autre chose. Et il faut aussi les comparer à une culture d’entreprise. Certaines entreprises vont mettre l’emphase sur certaines choses, cela peut être l’égalité hommes-femmes ou l’accueil des personnes les plus vulnérables, et l’idée est d’intégrer tout cela de façon à faire en sorte qu’elles aient leur propre charte qui leur corresponde ». La Human Technology Foundation travaille pour le moment avec les grands groupes « parce que ce sont les plus avancés en termes d’intelligence artificielle et parce que ce sont ceux qui vont avoir l’impact le plus large sur l’économie. Ce que j’aimerais, c’est qu’à terme nous puissions proposer des outils d’autoévaluation à toutes les PME de façon à ce que, en ligne et de façon gratuite, elles puissent faire leur autoévaluation et se poser les bonnes questions ».

Lire aussi : Recours à l’IA : « Une réglementation encore très émergente »


Sébastien Guiné