Pour une Intelligence Artificielle Ethique

 

Avec un montant d’investissement qui dépassera les 500 milliards de dollars à l’horizon 2023[1] – selon les prévisions IDC, un acteur majeur de la prévision de tendance sur les marchés des nouvelles technologies, les technologies d’Intelligence Artificielle (ou IA) semblent se rendre incontournables, que ce soit dans le secteur bancaire, assurantiel, dans l’industrie ainsi que dans la vie quotidienne. Si on pense aisément aux véhicules autonomes ou encore à l’aide au diagnostic médical, il peut exister d’autres usages moins connus du grand public. Par exemple, une utilisation des IA dans le cadre de la lutte contre la fraude ou le blanchiment, de la segmentation client et l’analyse comportementale, du process KYC…

De ce fait, le pendant de l’essor des IA est la capacité du régulateur et des acteurs du marché à encadrer l’innovation, définir et appliquer des bonnes pratiques, sans pour autant la freiner. En effet, comment mettre en œuvre une réglementation qui vienne encadrer l’innovation en matière d’IA sans pour autant la freiner ? C’est d’autant plus vrai que les IA sont une matière neuve impliquant des technologies à la fois nouvelles et complexes, et qu’aucune partie prenante ne maîtrise de bout en bout. Si le métier ne maîtrise pas le sous-jacent technique de ses demandes, le Data Scientist ne maîtrise pas toujours les impacts des applications pratiques qui en sont faites. La multiplicité d’acteurs et la complexité technologique qu’elles impliquent nécessite une appréciation transverse des impacts.

Poser un cadre réglementaire apparaît ainsi nécessaire (et c’est d’ailleurs ce qui a été entrepris au niveau national et européen) mais est-ce pour autant suffisant ? Un usage peut entièrement entrer dans le cadre réglementaire, mais est-il pour autant souhaitable ?

Entre ici en jeu une notion d’éthique, qui pourrait sembler évidente en parlant d’IA mais qui n’est pas toujours prise en compte dans les réflexions – au niveau théorique bien entendu dans la construction des modèles (ex : modèle exempt de biais) mais aussi et surtout au niveau pratique dans les applications qui en sont faites (ex : absence de discrimination). Il paraît donc nécessaire voire primordial, au-delà de la simple logique réglementaire, de poser un cadre éthique qui puisse permettre le développement d’opportunités qui concilient performance technique, enjeux métiers et dimension humaine.

 

  • Les technologies IA, un développement exponentiel source d’opportunités mais nécessitant de rester vigilant sur le plan Ethique

Avant de rentrer plus spécifiquement sur les enjeux spécifiques des IA, arrêtons-nous rapidement sur la « data » de manière générale. Le volume de données créées, capturées, copiées et consommées dans le monde s’élevait à 64,2 zettabytes[2] en 2020. En 2025, nous serons autour de 180 zettabytes avec une augmentation en parallèle des capacités de stockage de la donnée, ce qui traduit ainsi un développement exponentiel des activités autour de la data.

L’expansion des technologies IA suit la même tendance, avec des investissements massifs et un développement des services d’intelligence artificielle qui devrait avoisiner les 52,6 milliards de dollars à l’horizon 2025[3] – avec une croissance moyenne de 22% par an depuis 2021. On peut d’ailleurs noter que l’Europe investit massivement sur ce marché, jugé stratégique.

Ce développement des IA s’accompagne nécessairement de risques, qu’ils soient liés au manque de matrise et de connaissance par les utilisateurs de cette technologie ou bien plus encore malveillants. En effet, le traitement de la donnée elle-même peut poser question. Comment être certain que les algorithmes ne sont pas biaisés dès leur construction ? On peut penser au choix des métriques qui peut être discriminant, à une asymétrie dans l’échantillon de données sélectionnées ou bien à un mécanisme de surajustement. La corrélation fallacieuse est l’exemple type de l’impact d’un biais de construction : l’acteur final prend des décisions discriminatrices sur des corrélations simplificatrices ou que l’on ne sait pas expliquer. Il en va ainsi des conséquences de ces décisions qui peuvent être source de risques, à la fois pour les organisations mais également pour les individus dont les données sont traitées. Bien entendu, le RGPD s’est emparé de ces questions d’utilisation des données personnelles par l’IA. Dans un autre registre, il existe des usages volontairement malveillants, en passant de l’exploitation de préjugés à de l’escroquerie ou des cyber-attaques et, plus grave encore, de l’hameçonnage sur-mesure ou encore du chantage à grande échelle. Ce dernier procédé consiste à recueillir des données personnelles afin d’envoyer des messages de menaces automatisés, visant par exemple à extorquer des fonds aux personnes concernées.

Que l’on parle de menaces implicites liées au manque de maitrise des technologies IA ou d’usages volontairement malveillants, il arrive que les risques élevés soient sous-estimés dans la course à la digitalisation en cours. Il est donc nécessaire d’encadrer ces usages : affirmation évidente mais pas toujours facile à mettre en œuvre dans les faits.

 

  • Une réglementation autour des IA en construction censée favoriser leur développement mais non auto-suffisante

Avec l’adoption le 3 mai 2022 de la résolution sur « L’intelligence Artificielle à l’ère du numérique » au Parlement Européen, une nouvelle brique est posée au travers de cette véritable feuille de route de l’IA visant à favoriser l’innovation tout en accentuant l’importance de la dimension humaine[4]. Cette étape fait en effet suite au Livre Blanc sur l’Intelligence Artificielle diffusé en février 2020.

Cette réglementation, établie en amont de manière conceptuelle, doit également se construire avec le développement de nouveaux usages, qui permettent de définir les contours du maillage réglementaire autour des IA. Si les débuts du développement des technologies IA ont été source d’inquiétude, la construction du cadre réglementaire entourant leur utilisation n’en est pas moins chose facile. Il a été mis en évidence une sorte de « vide technologique »[5] autour des IA (en lien avec la notion de vide juridique) : il existe une ambigüité dans la lecture technique qui empêche la réglementation d’être appliquée comme elle a été initialement construite, laissant ainsi s’échapper la majorité des cas de figure qui n’entre pas dans ce maillage.

Qui plus est, il apparaît difficile d’encadrer une technologie dont les enjeux et mécanismes ne sont pas compris et entièrement maitrisés par les différentes parties prenantes, créant ainsi une sorte d’« asymétrie d’information » en résonnance avec le terme économique utilisé. La prise en compte par les acteurs des enjeux éthiques de l’IA paraît alors indispensable dans ce cadre.

 

  • Un nécessaire cadre éthique pour promouvoir un usage des IA qui soit responsable et facteur de différentiation durable pour les organisations

Le 24 novembre 2021, la Recommandation sur l’éthique de l’intelligence artificielle a été adoptée par la conférence générale de l’UNESCO, un début de prise de conscience des impacts notamment dans le domaine de l’éducation ou de la connaissance scientifique mais également de la culture ou de la communication.

En effet, il ne peut pas être pensé une IA sans cadre réglementaire mais surtout sans cadre éthique, l’idée étant de pouvoir l’utiliser comme réel facteur de différenciation pour un développement durable sur le long terme. L’UNESCO pointe par exemple la notion de « dilemme éthique » qui conduit l’IA à devoir prendre une décision qui ne relève pas simplement d’un apprentissage mais soulève un vrai problème au niveau éthique. L’exemple de la voiture autonome en est une illustration : quand ses freins lâchent, quelle décision prend l’algorithme lorsque le véhicule s’approche dangereusement d’une grand-mère et d’un enfant (sachant que seul un des deux peut être sauvé par évitement) ? Cette question met ainsi en lumière les implications éthiques sous-jacentes liées à l’utilisation de l’IA.

L’encadrement des pratiques liées aux IA mérite donc nécessairement d’être pensé au niveau éthique, que ce soit dans des usages à petite échelle mais également au sein des organisations qui traitent des volumes importants de données. Dans leur recherche d’innovation, les IA peuvent être une source de différentiation pour les entreprises, sous réserve de penser une utilisation qui soit durable et qui prenne en compte l’ensemble de l’écosystème et les différentes parties prenantes impactées au-delà de la simple réglementation.

Chez ACI partners, nous sommes convaincus du potentiel des technologies IA centrées sur l’humain. D’un point de vue technique, il est donc essentiel de prendre des mesures dès la conception des algorithmes pour veiller à ne pas produire de biais. D’un point de vue organisationnel et métiers, il l’est tout autant de structurer une réflexion dynamique impliquant l’ensemble des parties prenantes et d’accompagner les changements de process et la redéfinition des rôles au sein des organisations afin d’assurer une prise en compte de bout en bout de la dimension éthique de l’utilisation de la donnée et des IA. C’est dans cette optique que nous sommes intervenus au sein du secteur assurantiel dans la construction d’une solution NLP[6] de protection des données personnelles des clients dans le cadre de la gestion contractuelle, de la souscription du contrat à la clôture de la relation. De manière générale, nous prenons part chez nos clients à la réflexion sur la définition et mise en œuvre sur-mesure de pratiques IA éthiques au sein de leur organisation.

Si vous souhaitez discuter plus avant du sujet et/ou découvrir notre offre Data, n’hésitez pas à vous rendre dans la rubrique « Expertise » de notre site internet.

 

Le 26-sept-2022.

 

Les Auteurs

 

Les Sources

  1. Source : https://www.silicon.fr/intelligence-artificielle-500-milliards-2023-432263.html
  2. Source : https://www.statista.com/statistics/871513/worldwide-data-created/
  3. Source : https://www.silicon.fr/intelligence-artificielle-500-milliards-2023-432263.html
  4. Source : https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_FR.html
  5. Aurélie Jean, Les algorithmes font-ils la loi ? 6/10/21
  6. Natural Language Processing