La réglementation de l’IA reste incertaine dans de nombreuses régions du monde, mais la meilleure façon de s’y préparer est d’appliquer l’éthique de l’intelligence artificielle. Ses principes sont basés sur des valeurs et appliqués sur une base volontaire. Cependant, de nombreuses réglementations à venir sont inspirées par eux, ce qui rend le respect d’une bonne éthique d’autant plus crucial.

Plusieurs organisations ont émis leur propre ensemble de principes éthiques en matière d’IA, telles que l’OCDE, l’UNESCO ou l’Union européenne, entre autres. Dans cet article, je vise à présenter les principes éthiques de l’IA les plus couramment partagés.

Différence entre éthique de l’intelligence artificielle et réglementation de l’IA

Généralement, l’éthique tourne autour des principes moraux guidant le comportement en fonction de ce qui est considéré comme juste ou non, de manières flexible et reposant sur l’adhésion volontaire. Les réglementations, en revanche, sont des règles spécifiques et juridiquement contraignantes établies par les autorités, appliquées avec des directives claires et des conséquences, se concentrant sur le contrôle et la gouvernance de certaines activités ou industries. Alors que l’éthique informe les valeurs, les réglementations sont des lois concrètes avec une conformité obligatoire et les moyens de coercition étatique associés.

Dans le domaine de l’intelligence artificielle, la régulation se présente sous la forme d’exigences contraignantes, souvent adressées aux fournisseurs de solutions d’IA, et appliquées par les autorités compétentes. En prenant l’exemple de l’AI Act de l’UE, ce règlement adopte une approche par les risques et classe les systèmes d’IA en fonction du risque qu’ils présentent pour la société, allant du non risqué (par exemple, un filtre anti-spam ou des jeux vidéo) à l’inacceptable (comme la reconnaissance faciale en temps réel dans les lieux publics ou les systèmes de crédit social à la chinoise). Les fournisseurs de tels systèmes auront des obligations différentes, mais la protection des données personnelles ne fait partie de ce règlement sur l’IA. Elle est gérée par le RGPD, avec ses propres ensembles de règles.

L’éthique de l’intelligence artificielle, en résumé, vise à couvrir toutes les façons dont l’IA devrait être construite et utilisée de manière responsable. Elle est appliquée volontairement et n’est pas imposée par une autorité étatique.

Les 7 principes éthiques de l’IA

  1. Équité et atténuation des biais

    • Définition : s’assurer que les systèmes d’IA ne discriminent pas ou ne renforcent pas les biais envers des individus ou des groupes particuliers.
    • Exemple : dans les processus de recrutement, les algorithmes d’IA utilisés pour filtrer les CV doivent être conçus pour éviter les biais liés au genre, à la race ou à l’origine ethnique. Le système devrait garantir une considération égale pour tous les candidats.
    • Solution potentielle : auditer régulièrement les algorithmes pour les biais, utiliser des ensembles de données diversifiés et représentatifs, utiliser des techniques telles que le débiaisement adversarial (adversial debiasing), et mettre en œuvre des algorithmes d’apprentissage automatique axés sur l’équité.
  2. Transparence et explicabilité

    • Définition : rendre les systèmes d’IA compréhensibles en fournissant des explications pour leurs décisions ou actions.
    • Exemple : les systèmes d’approbation de prêts bancaires alimentés par l’IA devraient fournir des explications claires sur les raisons pour lesquelles une demande de prêt a été acceptée ou rejetée. Cette transparence aide les demandeurs à comprendre le processus de prise de décision.
    • Solution potentielle : développer des modèles d’IA qui génèrent des explications pour leurs décisions (par exemple, des modèles d’apprentissage automatique interprétables), fournir des interfaces conviviales pour afficher les résultats générés par l’IA, et utiliser des outils pour l’interprétabilité des modèles.
  3. Responsabilité

    • Définition : établir une gouvernance des données et des mécanismes pour attribuer la responsabilité lorsque les systèmes d’IA causent des dommages ou prennent des décisions incorrectes.
    • Exemple : établir des protocoles clairs pour déterminer qui est responsable lorsqu’un véhicule autonome est impliqué dans un accident. Cela inclut de définir s’il s’agit du fabricant, du développeur de logiciels ou du propriétaire du véhicule.
    • Solution potentielle : établir des lignes directrices claires pour le développement des systèmes d’IA, définir des protocoles pour attribuer la responsabilité en cas de défaillance du système, et instituer des politiques qui rendent les organisations responsables du comportement de leurs systèmes d’IA.
  4. Protection des données personnelles

    • Définition : protéger les données des utilisateurs et veiller à ce que les systèmes d’IA traitent les informations de manière à respecter la confidentialité et les réglementations de protection des données. La plupart des organisations conformes au RGPD seront bien équipées pour cela.
    • Exemple : mise en œuvre d’un chiffrement robuste et de contrôles d’accès pour protéger les données médicales sensibles dans les systèmes d’IA utilisés pour les soins de santé, garantissant la confidentialité des patients.
    • Solution potentielle : Effectuer une évaluation d’impact sur la protection des données (DPIA) robuste sur la solution d’IA. Assurez-vous de savoir ce qui se passe avec les données personnelles traitées dans le cadre du système d’IA (d’autant plus s’ils entraînent l’IA). Il est crucial que les utilisateurs soient adéquatement formés pour utiliser l’IA de la manière prévue.
  5. Sécurité et fiabilité

    • Définition : développer des systèmes d’IA qui sont sûrs, fiables et exempts de conséquences ou de risques non intentionnels, y compris les attaques.
    • Exemple : tester et valider les systèmes d’IA de manière approfondie avant de les déployer dans des domaines critiques tels que le diagnostic médical ou les véhicules autonomes, garantissant qu’ils fonctionnent de manière fiable et en toute sécurité.
    • Solution potentielle : mener des tests, validations et simulations rigoureux des systèmes d’IA dans divers scénarios, adopter des mécanismes de sécurité comme les interrupteurs d’urgence, et surveiller continuellement les systèmes d’IA pour détecter les comportements inattendus.
  6. Impact et bénéfice sociétal

    • Définition : tenir compte de l’impact plus large de l’IA sur la société, visant des contributions positives au bien-être sociétal.
    • Exemple : utiliser l’IA pour améliorer l’accessibilité, par exemple en développant des systèmes qui aident les personnes handicapées, favorisant ainsi l’inclusion et le bénéfice sociétal.
    • Solution potentielle : réaliser des évaluations d’impact approfondies avant de déployer des systèmes d’IA, collaborer avec divers acteurs et investir dans des projets répondant aux besoins de la société, garantissant que l’IA bénéficie à tous les segments de la société.
  7. Contrôle humain et autonomie

    • Définition : garantir que les humains restent maîtres des systèmes d’IA et que ces systèmes respectent l’autonomie, la dignité et l’autorité décisionnelle humaines.
    • Exemple : concevoir des systèmes d’IA en collaboration avec des humains, permettant une intervention ou une supervision humaine lorsque des décisions cruciales sont prises, garantissant que le contrôle ultime reste entre les mains des humains.
    • Solution potentielle : incorporer des systèmes impliquant les humains dans le processus, permettant une supervision ou une intervention humaine lorsque des décisions critiques sont prises, et concevoir des systèmes d’IA qui renforcent les capacités humaines plutôt que de les remplacer entièrement.

Suivre les principes de l’éthique de l’IA avant d’être régulé

Dans le paysage en constante évolution de la régulation de l’IA, suivre les principes éthiques de l’intelligence artificielle permet de s’y préparer. Ces principes, similaires à notre boussole morale, façonnent le développement responsable de l’IA. Ils sont le point de départ des futures réglementations et les nourrissent. Alors que les réglementations offrent des règles claires, les principes éthiques fournissent un cadre plus large et adaptable. Adopter ces principes non seulement favorise une IA éthique, mais s’aligne également sur les réglementations en évolution, garantissant une IA respectueuse de nos valeurs et qui élève la société. Toute organisation qui s’attache à ces principes éthiques sera bien armée pour les futures évolutions législatives.

Emmanuel Pernot-Leplay

Stay in the loop

Subscribe to our free newsletter.