Recours à l'IA : « Une (...)

Recours à l’IA : « Une réglementation encore très émergente »

Apolline Buchler est directrice au sein de Promontory, entité d’IBM Consulting qui accompagne majoritairement des établissements du secteur bancaire et financier. « Nous accompagnons nos clients sur des problématiques réglementaires et sur des problématiques de gestion des risques : risques sur la sécurité financière (lutte contre le blanchiment et la corruption) et risques autour des technologies (IA, résilience opérationnelle des systèmes d’information, data et RGPD)  », explique-t-elle. Le rôle de ces structures est indispensable pour encadrer l’utilisation de systèmes d’intelligence artificielle par les entreprises, d’autant que la réglementation n’est que très récente.

A quoi sert l’IA ?

- Il y a deux grands objectifs. Le premier est de pouvoir répondre à des problématiques liées à l’efficacité opérationnelle de certains processus, notamment à la lourdeur de certains processus, qui peuvent être très variés selon les secteurs d’activité. Le second objectif concerne peut-être surtout le secteur bancaire et financier. Les banques sont censées répondre à un certain nombre de réglementations et il y a une vraie problématique de conformité à ces réglementations, sans même parler de coûts. Les systèmes d’intelligence artificielle permettent de mieux détecter des risques de fraude ou de blanchiment par exemple. Beaucoup mieux que des systèmes classiques basés sur des règles prédéfinies. L’IA permet de croiser des données pour détecter des comportements atypiques frauduleux.

De quoi faut-il se méfier dans le recours à l’IA ?

- Je vais me placer du côté de l’entreprise, pas en tant qu’utilisatrice. Nos clients nous interrogent souvent sur les risques qu’ils prennent en ne répondant pas à certaines demandes de la réglementation en apposant des systèmes d’intelligence artificielle à leur « process business ». Il y a une réglementation encore très émergente un peu partout dans le monde, notamment en Europe. Une proposition de règlement a été faite par la Commission européenne en avril 2021. Cette proposition a été revue en avril 2022 par le Conseil de l’Europe qui a rendu son avis, avec quelques modifications. Dans les prochains mois, est attendu le retour du Parlement européen. Une fois cet avis rendu, la Commission, le Conseil de l’Europe et le Parlement s’entendront sur un texte final. C’est vraiment un règlement majeur que l’on attend. On estime qu’il faudra entre six à dix-huit mois pour que ce règlement soit voté de manière définitive. On espère qu’il le sera au cours de l’année 2023. Ensuite, il y aura une période de deux ans d’application au sein des entreprises. Elles auront deux ans pour mettre en œuvre les exigences listées dans ce règlement. Au même titre que le RGPD (Règlement général sur la protection des données), il s’appliquera automatiquement à l’ensemble des États de l’Union européenne.

Pouvez-vous nous expliquer ce qu’est l’IA de confiance ?

- Nos clients nous interrogent beaucoup là-dessus mais c’est valable dans l’ensemble des secteurs d’activité. Nous avons fait une analyse de la réglementation sur l’ensemble du globe et nous avons identifié plus de 150 textes réglementaires et plus de 900 obligations réglementaires. Nous avons constaté que sept thématiques revenaient quasiment systématiquement. Ces sept principes clés sont : la supervision humaine et la relation de l’humain avec la machine ; la robustesse, la résilience des systèmes et la cybersécurité ; la confidentialité des données et la protection des données personnelles ; la transparence et l’explicabilité ; la gestion des biais et l’équité ; la responsabilité (avoir une gouvernance adaptée dans l’entreprise) ; et la proportionnalité (mise en place de mesures adaptées aux risques pris). Avec son histoire technologique de longue date, IBM est très avance sur ces sujets liés à l’intelligence artificielle et cela fait longtemps qu’IBM a une charte de l’IA de confiance et nous communiquons beaucoup auprès de nos clients sur cette IA de confiance.

En Europe l’encadrement du développement de l’IA dépend donc du bon vouloir de chaque entreprise ?

- Oui mais il y a quand même un principe de responsabilité et des réglementations qui existent déjà, comme le RGPD. Vous devez vous conformer au RGPD et en France c’est la CNIL qui est le régulateur sur ce sujet. Les entreprises ont déjà un certain nombre d’obligations par rapport aux systèmes qu’elles développent.

On peut avoir le sentiment d’être plus dans la réaction que dans l’anticipation avec l’IA…

- Je pense que c’est toute une culture qui est montante. Aujourd’hui, nous sommes tous assez jeunes et nous nous étonnons des résultats que ces systèmes sont capables d’apporter. Au-delà de ce règlement européen, les régulateurs auront un rôle important à jouer. Ils vont devoir énormément communiquer pour éduquer la population, quels que soient les niveaux. Et d’ailleurs je trouve que le site de la CNIL est extrêmement bien fait. Il y a des informations pour le grand public, pour les professionnels et pour les experts. L’IA est une technologie absolument incroyable mais elle doit servir à accompagner la réflexion de l’humain. L’IA n’est pas là pour remplacer l’humain, elle doit lui apporter des éléments pour augmenter son intelligence.

Lire aussi  :Intelligence artificielle : « Il faut développer une culture de l’éthique »

Photo de Une DR

deconnecte