Comment développer une IA éthique ?

Temps de lecture : 3 minutes

C’est un fait, le développement de l’intelligence artificielle suscite de l’enthousiasme mais aussi des inquiétudes légitimes. Car, sans être en mesure de reproduire les pires scénarios de science-fiction, l’IA présente des risques qu’il faut prévenir. Il s’agit donc de connaître ces risques, d’adopter des principes pour les maîtriser et, aussi, de s’engager dans la durée sur des principes pour assurer que le développement de l’IA s’effectue réellement au service de l’homme. Objectif : soutenir une intelligence artificielle éthique.

Éviter l’effet « black box »

Certains risques sont d’ores et déjà connus. Parmi eux, le risque d’opacité : le fait que des déductions logiques de la machine peuvent échapper au raisonnement humain avec, à la clé, des décisions incomprises. Ce que Kate Crawford, chercheuse chez Microsoft Research, nomme les «black box ». Le phénomène est connu et a déjà fait l’actualité – les discussions sur l’algorithme employé pour l’admission post-bac en témoignent.

Pour Bernard Ourghanlian, Directeur Technique et Sécurité chez Microsoft France, « il est extrêmement important d’être en mesure d’expliquer la décision prise par un algorithme aux citoyens concernés, notamment sur les sujets sensibles tels que la santé ou la sélection professionnelle. » À ses yeux, lorsqu’un algorithme prend une décision d’une importance majeure pour la vie des individus, il doit nécessairement pouvoir être expliqué. Si cela s’avère impossible, il faut alors rendre l’algorithme moins complexe, afin de lever son opacité.

Livre Blanc
Création d’une ville hyperconnectée

Quelle sont les bonnes pratiques et les défis liés de la création d’une ville hyperconnectée ? Cet Ebook interactif et collaboratif vous dévoile son analyse sur les villes hyperconnectées. 

icon livreTélécharger le livre blanc

Ne pas oublier que l’IA apprend avec… les données fournies

Autre risque, celui lié aux données fournies. Les systèmes d’intelligence artificielle prennent des décisions uniquement sur la base des données qui leur sont soumises. Ce qui peut être a priori un gage d’impartialité peut aussi conduire à des décisions hors contexte avec de possibles injustices à la clé.

Exemple : un algorithme qui a été développé pour déterminer si les patients souffrant de pneumonie devraient être admis dans un hôpital a déduit des données à sa disposition que les patients asthmatiques présentaient un faible risque. Une conclusion plutôt contre-intuive… Et pour cause : les données démontrant que toute personne atteinte d’asthme était immédiatement envoyée aux urgences pour traitement (et avait donc un taux de survie élevé) avaient été omises. Un oubli identifié par les médecins mais qui illustre les impacts possibles d’une donnée partielle.

Si l’IA peut parvenir à des déductions erronées, elle peut aussi agir de manière non-souhaitée. Aux États-Unis, un assistant vocal a transmis automatiquement des commandes d’achat suite à des phrases prononcées… par une télévision. Les utilisateurs ont donc eu la surprise de recevoir des commandes qu’ils n’avaient pas validées eux-mêmes. Cet exemple peut faire sourire mais, dans un autre contexte, les conséquences pourraient être bien plus dommageables.

Lire aussi Tout savoir sur l’intelligence artificielle

Impartialité et redevabilité : deux principes clés

Voilà pourquoi Eric Horvitz, directeur chez Microsoft Research, place au cœur de son travail l’idée que l’intelligence artificielle n’existe pas pour remplacer l’homme mais pour « compléter, assister, optimiser et étendre les capacités humaines. » Kate Crawford estime pour sa part qu’il est nécessaire d’intégrer des notions d’impartialité et de redevabilité lors de la conception même des systèmes d’intelligence artificielle.

Si cette pratique n’est pas encore répandue, elle est centrale chez Microsoft. Elle consiste par exemple à veiller à la bonne diversité des équipes de conception afin qu’elles soient à l’image des publics concernés pour éviter tout biais. Il s’agit aussi de tester à grande échelle les algorithmes pour vérifier que leurs déductions restent explicables. Autant de mesures qui, pour perdurer, doivent s’appuyer sur un socle de valeur éthiques pensées pour l’intelligence artificielle.

Découvrez les 6 valeurs de Microsoft pour une intelligence artificielle éthique dans le livre blanc « Guide de survie de l’intelligence artificielle ».