Comment développer une IA éthique ?

Temps de lecture : 3 minutes

C’est un fait, le développement de l’intelligence artificielle suscite de l’enthousiasme mais aussi des inquiétudes légitimes. Car, sans être en mesure de reproduire les pires scénarios de science-fiction, l’IA présente des risques qu’il faut prévenir. Il s’agit donc de connaître ces risques, d’adopter des principes pour les maîtriser et, aussi, de s’engager dans la durée sur des principes pour assurer que le développement de l’IA s’effectue réellement au service de l’homme. Objectif : soutenir une intelligence artificielle éthique.

Éviter l’effet « black box »

Certains risques sont d’ores et déjà connus. Parmi eux, le risque d’opacité : le fait que des déductions logiques de la machine peuvent échapper au raisonnement humain avec, à la clé, des décisions incomprises. Ce que Kate Crawford, chercheuse chez Microsoft Research, nomme les «black box ». Le phénomène est connu et a déjà fait l’actualité – les discussions sur l’algorithme employé pour l’admission post-bac en témoignent.

Pour Bernard Ourghanlian, Directeur Technique et Sécurité chez Microsoft France, « il est extrêmement important d’être en mesure d’expliquer la décision prise par un algorithme aux citoyens concernés, notamment sur les sujets sensibles tels que la santé ou la sélection professionnelle. » À ses yeux, lorsqu’un algorithme prend une décision d’une importance majeure pour la vie des individus, il doit nécessairement pouvoir être expliqué. Si cela s’avère impossible, il faut alors rendre l’algorithme moins complexe, afin de lever son opacité.

Livre Blanc

Création d’une ville hyperconnectée

Quelle sont les bonnes pratiques et les défis liés de la création d’une ville hyperconnectée ? Cet Ebook interactif et collaboratif vous dévoile son analyse sur les villes hyperconnectées. 

Télécharger le livre blanc

Ne pas oublier que l’IA apprend avec… les données fournies

Autre risque, celui lié aux données fournies. Les systèmes d’intelligence artificielle prennent des décisions uniquement sur la base des données qui leur sont soumises. Ce qui peut être a priori un gage d’impartialité peut aussi conduire à des décisions hors contexte avec de possibles injustices à la clé.

Exemple : un algorithme qui a été développé pour déterminer si les patients souffrant de pneumonie devraient être admis dans un hôpital a déduit des données à sa disposition que les patients asthmatiques présentaient un faible risque. Une conclusion plutôt contre-intuive… Et pour cause : les données démontrant que toute personne atteinte d’asthme était immédiatement envoyée aux urgences pour traitement (et avait donc un taux de survie élevé) avaient été omises. Un oubli identifié par les médecins mais qui illustre les impacts possibles d’une donnée partielle.

Si l’IA peut parvenir à des déductions erronées, elle peut aussi agir de manière non-souhaitée. Aux États-Unis, un assistant vocal a transmis automatiquement des commandes d’achat suite à des phrases prononcées… par une télévision. Les utilisateurs ont donc eu la surprise de recevoir des commandes qu’ils n’avaient pas validées eux-mêmes. Cet exemple peut faire sourire mais, dans un autre contexte, les conséquences pourraient être bien plus dommageables.

Lire aussi Tout savoir sur l’intelligence artificielle

Impartialité et redevabilité : deux principes clés

Voilà pourquoi Eric Horvitz, directeur chez Microsoft Research, place au cœur de son travail l’idée que l’intelligence artificielle n’existe pas pour remplacer l’homme mais pour « compléter, assister, optimiser et étendre les capacités humaines. » Kate Crawford estime pour sa part qu’il est nécessaire d’intégrer des notions d’impartialité et de redevabilité lors de la conception même des systèmes d’intelligence artificielle.

Si cette pratique n’est pas encore répandue, elle est centrale chez Microsoft. Elle consiste par exemple à veiller à la bonne diversité des équipes de conception afin qu’elles soient à l’image des publics concernés pour éviter tout biais. Il s’agit aussi de tester à grande échelle les algorithmes pour vérifier que leurs déductions restent explicables. Autant de mesures qui, pour perdurer, doivent s’appuyer sur un socle de valeur éthiques pensées pour l’intelligence artificielle.

Découvrez les 6 valeurs de Microsoft pour une intelligence artificielle éthique dans le livre blanc « Guide de survie de l’intelligence artificielle ».

 

A la une

#hololense

Le métavers au service de l’industrie

Alors que le métavers fait progressivement son chemin vers le grand public, il est déjà depuis déjà quelques années une réalité dans le secteur de l’industrie. Des technologies industrielles matures, dont Microsoft et ses partenaires se sont fait une spécialité. Une usine qui prend forme virtuellement avant d’être construite. D’immenses cuves de brassages connectées qui […]

Lire l'article
Etudiant devant un écran

L’adaptive learning change les codes de l’apprentissage

L’adaptive learning s’impose de plus en plus dans les formations, et pour cause : face à la pluralité des profils au sein d’un système scolaire l’adaptive Learning offre des outils pour traiter équitablement l’ensemble des profils d’apprenants. Mais quand est-il vraiment de cette méthode de pédagogie innovante ? Rencontre avec Pascal Bringer, directeur général de Maskott, […]

Lire l'article
Data loss prevention (DLP)

Data Management: tout ce qu’il faut savoir

Les données sont aujourd’hui indissociables des modes de travail et de production des organisations, encore faut-il savoir les gérer de façon efficace et intelligente : c’est ce qu’on appelle le « Data management » ou « gestion des données ». Explorons ce concept ensemble. Sommaire : 1. Présentation du Data Management 2. Explication de la […]

Lire l'article