Charte éthique de l’IA en entreprise

Pourquoi ?

Au cours de ces dernières années, l’accessibilité à l’IA s’est considérablement améliorée, tant en termes de facilité d’utilisation que de coût. Cette évolution a conduit à une intégration croissante de l’IA dans de nombreux domaines d’activités, y compris les entreprises, pour réduire les coûts et gagner en compétitivité.

 

Cependant, l’utilisation de l’IA peut avoir des conséquences négatives sur la société et l’environnement, notamment en termes de vie privée, de sécurité, de biais et de discrimination.

 

Pour éviter ces impacts négatifs, il est important d’avoir une charte éthique sur l’utilisation des bonnes pratiques de l’IA en entreprise. Cette charte éthique est destinée à guider les entreprises dans l’utilisation responsable et éthique de l’IA en maximisant ses avantages tout en minimisant ses risques.

Elle n’a pas pour but d’être appliqué à la lettre mais bien de donner des bonnes pratiques à l’entreprise sur le développement, l’implémentation et l’utilisation des intelligences artificielles.

Comment ?

La réalisation de cette charte éthique a impliqué une évaluation globale de l’IA et de tous ses impacts négatifs potentiels sur la société et l’environnement. 

 

Pour ce faire, des experts dans les domaines de l’IA, de l’éthique, des droits de l’homme, de la vie privée et de la sécurité ont été consultés pour aider à identifier les risques et les enjeux éthiques liés à l’utilisation de l’IA en entreprise.

 

En outre, une analyse des réglementations et des pratiques éthiques existantes a été réalisée pour s’assurer que cette charte éthique est cohérente avec les normes et les règles en vigueur dans ce domaine. 

 

Le document final est donc le fruit d’une collaboration entre des experts de différentes disciplines pour garantir que les normes et les pratiques recommandées sont conformes aux principes éthiques les plus élevés.

 

 

Charte éthique 

Responsabilité et transparence

Les organisations qui utilisent des systèmes d’IA devraient être responsables de leurs actions et transparentes dans leurs décisions (les actions réalisées par l’IA ainsi que les critères de décision par exemple. Elles doivent :

  • Être claires sur les finalités et les limites des systèmes d’IA qu’elles utilisent et divulguer les types de données utilisées pour entraîner les modèles d’IA.
  • Veiller à ce que les décisions prises par les systèmes d’IA soient expliquées de manière compréhensible pour les utilisateurs, quels sont les critères d’acceptances.
  • Être prêtes à rendre des comptes en cas de problème ou d’impact négatif de leurs systèmes d’IA.

Équité et non-discrimination

Les systèmes d’IA ne doivent pas reproduire ou renforcer les biais existants dans les données sur lesquelles ils ont été entraînés. Les organisations qui utilisent des systèmes d’IA devraient :

  • Veiller à ce que leurs décisions soient équitables et ne discriminant pas sur la base de l’âge, de la race, du genre, de l’orientation sexuelle, de la religion ou d’autres caractéristiques protégées.
  • Limiter la reproduction des préjugés & des stéréotypes par la diversification des données d’apprentissage, ajuster les biais de manière mathématique.
  • Faire preuve de diligence raisonnable pour s’assurer que les données d’entraînement utilisées pour développer des systèmes d’IA sont représentatives et non biaisées.

Vie privée et protection des données

Les organisations qui utilisent des systèmes d’IA devraient respecter la vie privée des individus et protéger leurs données personnelles. Elles doivent :

  • Utiliser les données personnelles uniquement dans le cadre de l’objectif pour lequel elles ont été collectées et pour le temps strictement nécessaire.
  • Mettre en place des mesures de sécurité appropriées pour protéger les données personnelles contre les risques de perte, de vol ou d’utilisation abusive.

Sécurité et fiabilité

Les organisations qui utilisent des systèmes d’IA devraient veiller à ce que leurs systèmes soient sûrs, fiables et résistants aux attaques malveillantes. Elles doivent :

  • Veiller à ce que leurs systèmes soient conçus et développés avec des normes de sécurité et de fiabilité élevées.
  • Identifier rapidement les erreurs et les dysfonctionnements des systèmes d’IA et les corriger rapidement.
  • Assurer une maintenance régulière des systèmes d’IA pour garantir leur sécurité et leur fiabilité.

Environnement et durabilité

Les organisations qui utilisent des systèmes d’IA devraient être conscientes de leur impact environnemental et chercher à minimiser leur consommation d’énergie et leur empreinte carbone. Elles doivent :

  • Évaluer l’impact environnemental de leurs systèmes d’IA et prendre des mesures pour réduire leur consommation d’énergie.
  • Encourager la recherche et le développement de systèmes d’IA plus économes en énergie et durables à long terme.
  • Encourager une intégration de l’IA dans un mode frugal (l’intégrer que si nécessaire, et que si elle apporte une réel valeur pour l’organisation ou l’utilisateur.
  • S’engager à utiliser les solutions techniques les plus efficientes pour répondre à leurs problématiques.

    Participation et consultation

    Les organisations qui utilisent des systèmes d’IA devraient encourager la participation et la consultation des parties prenantes, y compris les utilisateurs, les experts en éthique, les organisations de la société civile et les communautés touchées. Elles doivent :

    • Être à l’écoute des préoccupations des parties prenantes et des communautés touchées par l’utilisation de l’IA.
    • Consulter des experts en éthique et des organisations de la société civile pour garantir une utilisation responsable et éthique de l’IA.
    • Encourager la participation des utilisateurs dans la conception et le développement des systèmes d’IA afin de garantir qu’ils répondent aux besoins réels des utilisateurs.

    Éducation et formation

    Les organisations qui utilisent des systèmes d’IA devraient investir dans l’éducation et la formation pour garantir que leurs employés et leurs utilisateurs comprennent les implications éthiques de l’utilisation de l’IA. Elles doivent :

    • Sensibiliser les employés et les utilisateurs à l’importance de l’éthique dans l’utilisation de l’IA.
    • Former les employés à l’identification et à la prévention des biais dans les systèmes d’IA.
    • Investir dans la formation et le développement de compétences pour les travailleurs dont les emplois pourraient être affectés par l’automatisation et l’IA.
    • Sensibiliser sur l’usage des IA et des données qu’elles peuvent collecter.

    Transparence et responsabilité

    Les organisations qui utilisent des systèmes d’IA devraient être transparentes dans leur utilisation de la technologie et responsables de ses impacts. Elles doivent :

    • Fournir des informations claires et compréhensibles sur la manière dont les systèmes d’IA sont utilisés et les décisions qu’ils prennent.
    • Établir une responsabilité claire pour les décisions prises par les systèmes d’IA et leurs impacts sur les utilisateurs et la société.
    • Assurer une surveillance régulière des systèmes d’IA pour détecter et corriger les erreurs et les biais.

    Respect des droits de l’homme

    Les organisations qui utilisent des systèmes d’IA doivent respecter les droits de l’homme, y compris les droits à la vie privée, à la non-discrimination et à la liberté d’expression. Elles doivent :

    • Veiller à ce que les systèmes d’IA ne soient pas utilisés pour violer les droits de l’homme ou pour renforcer des pratiques discriminatoires.
    • S’assurer que les données utilisées dans les systèmes d’IA sont collectées et utilisées conformément aux normes internationales de protection des droits de l’homme.
    • Garantir que les utilisateurs ont le droit de connaître les données qui sont collectées sur eux et d’en demander la suppression si nécessaire.

    Respect de la vie privée et des données

    Les organisations qui utilisent des systèmes d’IA doivent respecter la vie privée et les données personnelles de leurs utilisateurs. Elles doivent :

    • Veiller à ce que les données personnelles soient collectées et utilisées de manière transparente et éthique.
    • Assurer la sécurité des données personnelles et les protéger contre les piratages informatiques et les violations de la sécurité.
    • Donner aux utilisateurs un contrôle sur leurs données personnelles, y compris le droit de les supprimer et de limiter leur utilisation.

    Responsabilité sociale

    Les organisations qui utilisent des systèmes d’IA devraient être responsables socialement et s’engager à utiliser l’IA pour améliorer la vie des communautés locales et de la société dans son ensemble. Elles doivent :

    • Contribuer à la résolution des problèmes sociaux et environnementaux en utilisant l’IA pour des projets socialement responsables.
    • Favoriser la diversité et l’inclusion dans l’utilisation de l’IA, afin que les systèmes soient développés pour répondre aux besoins des communautés locales et des groupes marginalisés.
    • Contribuer à la formation de la main-d’œuvre et à la création d’emplois dans les domaines de l’IA pour permettre aux communautés de bénéficier de cette technologie.
    • Privilégier l’humain à l’IA en intégrant cette dernière pour améliorer l’efficacité des tâches répétitives plutôt que de remplacer leurs fonctions. (plutôt que de remplacer les employés par l’ia voir pour reformulation)

    Évaluation de l’impact

    Les organisations qui utilisent des systèmes d’IA devraient évaluer l’impact de leurs systèmes sur la société et l’environnement. Elles doivent :

    • Évaluer régulièrement les impacts positifs et négatifs de l’utilisation de l’IA et s’engager à améliorer continuellement leurs pratiques.
    • Contribuer à la recherche scientifique pour évaluer l’impact de l’IA sur la société et l’environnement.
    • Publier des rapports de transparence sur l’utilisation de l’IA et l’impact sur la société et l’environnement.
    • Intégrer l’impact de l’IA utilisé dans le bilan carbone de l’entreprise.

     

    Outro

    En adoptant cette charte éthique pour l’utilisation de l’IA, les organisations peuvent contribuer à maximiser les avantages de l’IA tout en minimisant ses impacts négatifs. 

    Cette charte devrait être considérée comme un document évolutif, qui doit être régulièrement mis à jour pour refléter les développements et les évolutions de l’IA. 

    Nous sommes ouverts à toutes propositions et contributions.

    V1 – 26/04/2023 – Mattéo CHEVALIER

    Annexe

    La liste brut des impacts de l’IA

     

    • La sécurité : Les systèmes d’IA peuvent être vulnérables aux attaques de sécurité, ce qui peut entraîner des pertes financières, des vols de données et des perturbations des services en ligne.

    • La déshumanisation : L’augmentation de l’utilisation de l’IA peut conduire à une perte de contact humain, à une diminution de l’empathie et à une désensibilisation à la souffrance humaine.

    • La réduction de la diversité : L’IA peut encourager l’homogénéité en fournissant des recommandations et des options personnalisées basées sur les préférences et les habitudes passées, ce qui peut limiter la diversité d’opinions et de choix.

    • La concentration du pouvoir : L’utilisation de l’IA peut renforcer la concentration du pouvoir économique et politique dans les mains de quelques grandes entreprises ou gouvernements, ce qui peut avoir des conséquences négatives pour la démocratie et l’égalité.

    • Perte d’emplois : L’automatisation de certains emplois grâce à l’IA peut entraîner une perte d’emplois pour les travailleurs humains.

    • Biais algorithmique : Les algorithmes d’IA peuvent reproduire des biais existants dans les données sur lesquelles ils ont été entraînés, ce qui peut conduire à des résultats discriminatoires.

    • Vie privée : Les systèmes d’IA peuvent collecter et utiliser des données personnelles de manière invasive, ce qui peut porter atteinte à la vie privée des individus.

    • Erreurs et dysfonctionnements : Les systèmes d’IA peuvent commettre des erreurs ou dysfonctionner, ce qui peut entraîner des conséquences négatives pour les utilisateurs et la société en général.

    • Dépendance : La dépendance accrue à l’IA peut affaiblir les compétences et les connaissances des travailleurs et des utilisateurs humains, qui peuvent alors être moins capables de prendre des décisions critiques ou de résoudre des problèmes.

    • Impact environnemental : La conception et l’utilisation d’une IA est coûteux en énergie, cela tend à s’améliorer avec les derniers algorithmes.