Microsoft s’engage pour une IA responsable

Temps de lecture : 4 minutes

Comment s’assurer que les algorithmes que nous développons respectent des principes responsables ? Est-il possible de concevoir une IA qui ne reproduise pas les biais sociétaux ? Laurence Lafont, directrice de la Division Marketing & Operations de Microsoft France, nous partage la vision du groupe.

 

Microsoft profile picture
Laurence Lafont

Directrice de la Division Marketing &

Operations, Microsoft France

Nous trouvons l’intelligence artificielle partout dans notre quotidien : outils de traduction simultanée, reconnaissance d’images ou de voix, maintenance prédictive… Pour de nombreuses tâches, les algorithmes, de mieux en mieux entraînés, sont aussi performants que nous. De fait, l’IA nous offre de nombreuses et prometteuses opportunités. Pour autant, leur multiplication soulève de nombreuses questions.

Pouvons-nous faire confiance aux algorithmes ? Ont-ils été conçus selon des principes responsables, sur des jeux de données non biaisés ? Vont-ils avoir un impact positif sur la société ? Selon Laurence Lafont, Microsoft doit apporter des réponses à ces questions légitimes, par des engagements très concrets.

Livre Blanc

Création d’une ville hyperconnectée

Quelle sont les bonnes pratiques et les défis liés de la création d’une ville hyperconnectée ? Cet Ebook interactif et collaboratif vous dévoile son analyse sur les villes hyperconnectées. 

Télécharger le livre blanc

Quels sont les engagements de Microsoft pour créer une IA responsable ?

En tant qu’un des leaders du numérique, Microsoft adopte une vision positive et optimiste de l’IA. Laurence Lafont explique que, dans le cadre du développement d’une IA responsable, le champ des opportunités est extrêmement large pour mieux servir les usagers de demain. Des convictions qui ne seraient pas suffisantes pour développer une IA responsable sans les engagements suivants : l’équité, l’impartialité, la fiabilité, la responsabilité, la confidentialité, la transparence et l’inclusion.

  • Traiter toutes les personnes de manière équitable

Les ordinateurs ont, en théorie, un raisonnement purement logique. L’IA permet donc de contribuer à des prises de décisions plus justes. Toutefois, pour une prise de décision éclairée, il reste nécessaire d’entraîner les humains à comprendre et interpréter la signification et l’interprétation des résultats proposés par l’IA.

  • Fonctionner de manière fiable et sûre

Il est essentiel de créer des cadres clairs et des moyens de contrôle intégrés pour que les systèmes d’IA puissent être fiables en toutes circonstances.

Microsoft est particulièrement attentifs à la protection contre des prises de contrôle ou contre l’introduction de données malveillantes dans les dispositifs d’IA.

Nous veillons également à ce que l’humain puisse toujours être en mesure de décider d’arrêter le système.

  • Rendre les personnes qui conçoivent et déploient les systèmes d’IA responsables

La question de la responsabilité est essentielle. Nous concevons les algorithmes, ils sont donc à notre image. Ainsi, ils peuvent tout à fait reproduire, voire accroître les inégalités préexistantes. Laurence Lafont cite l’exemple d’une entreprise du digital qui, pour faciliter son processus de recrutement, a déployé un algorithme de tri des candidatures pour des postes techniques. Résultat : 80 % des CV sélectionnés étaient masculins. Pourquoi ? Parce que la machine avait été entraînée à partir de CV réels reçus par l’entreprise pour ces postes. Des CV en très grande majorité masculins. Mettre en place des panels de contrôle interne et d’audit peut permettre de placer la responsabilité des systèmes sur ceux qui les conçoivent et les déploient pour lutter par exemple contre cet effet de biais.

  • Garantir la transparence dans l’utilisation des données

Sans data, pas d’IA. Si la donnée doit être utilisée pour servir les utilisateurs et leur offrir des services plus performants et innovants, en aucun cas elle ne doit être exploitée à leur insu. Et Laurence Lafont insiste bien sur ce dernier point : Microsoft est un opérateur de plateformes qui prend des engagements sur la non-utilisation des données dans un contexte autre que celui pour lequel elles lui ont été fournies.

Quant aux systèmes d’IA, ils doivent être compréhensibles : il ne suffit pas de simplement publier les algorithmes, mais aussi de les expliquer. Pourquoi ? Parce que chacun doit pouvoir appréhender les fondements des décisions qui ont un impact sur sa vie.

  • Assurer la sécurité et le respect de la vie privée

La confidentialité des données doit être un pilier du développement des systèmes d’intelligence artificielle. Pour cela, ces derniers doivent intégrer des règles et principes sur la protection des données. Et des techniques de séparation des données personnelles des données d’informations peuvent également être mises en place.

  • Concevoir une IA inclusive

Comment faire pour que l’IA prenne en compte et intègre un vaste champ d’expériences humaines ? Mettre en place des équipes de conception d’origines diverses peut permettre aux développeurs d’anticiper la variété des besoins et de n’exclure personne. C’est ainsi que les systèmes d’IA pourront permettre à chacun de mieux s’intégrer.

Microsoft travaille ainsi sur les technologies qui permettent de recréer du lien social. Un exemple parmi d’autres : le développement de l’application Seeing AI qui permet à des personnes mal voyantes d’utiliser sur leur smartphone un logiciel qui détecte leur environnement en temps réel et peut ainsi leur décrire l’espace et le contexte dans lesquels ils se trouvent.

Lire aussi IA & éthique : « Il faut savoir prendre du recul » – Cécile Wendling

Livre Blanc

Soins de santé : impliquez les patients au numérique

Pour répondre aux nouvelles attentes des clients, le secteur de la santé a su innover et leur proposer une approche personnalisée.

Télécharger le livre blanc

Des engagements qui se traduisent par des actions concrètes

Réfléchir et agir autour de l’utilisation d’une IA responsable en France, c’est possible ? C’est ce qu’a souhaité Microsoft en lançant le collectif Impact AI avec des startups, chercheurs et grands groupes partenaires, afin d’ établir un cadre théorique pour une IA responsable.

Lire aussi Comment se former aux métiers de l’intelligence artificielle ?

Ces engagements et initiatives viennent nourrir la vision « AI for good » dans laquelle l’IA est utilisée à des fins utiles à la société. Une vision qui se structure en trois grands programmes :

  • AI for Earth: mettre à disposition l’IA et les logiciels de cloud pour résoudre des problèmes climatiques mondiaux.
  • AI for accessibility: amplifier les capacités humaines de plus d’un milliard de personnes en situation de handicap dans le monde. Et ce, grâce à l’intelligence artificielle.
  • AI for humanitarian action : fournir aux organisations humanitaires partenaires, dont Amnesty International, des subventions financières et la technologie nécessaires pour résoudre les problèmes humanitaires mondiaux.

Des objectifs ambitieux, fondés sur des valeurs intemporelles dans lesquels le Groupe croit fermement et s’investit pleinement.

 

Pour en savoir, rendez-vous sur le site Microsoft AI https://www.microsoft.com/fr-fr/ai

A la une

#hololense

Le métavers au service de l’industrie

Alors que le métavers fait progressivement son chemin vers le grand public, il est déjà depuis déjà quelques années une réalité dans le secteur de l’industrie. Des technologies industrielles matures, dont Microsoft et ses partenaires se sont fait une spécialité. Une usine qui prend forme virtuellement avant d’être construite. D’immenses cuves de brassages connectées qui […]

Lire l'article
Etudiant devant un écran

L’adaptive learning change les codes de l’apprentissage

L’adaptive learning s’impose de plus en plus dans les formations, et pour cause : face à la pluralité des profils au sein d’un système scolaire l’adaptive Learning offre des outils pour traiter équitablement l’ensemble des profils d’apprenants. Mais quand est-il vraiment de cette méthode de pédagogie innovante ? Rencontre avec Pascal Bringer, directeur général de Maskott, […]

Lire l'article
Data loss prevention (DLP)

Data Management: tout ce qu’il faut savoir

Les données sont aujourd’hui indissociables des modes de travail et de production des organisations, encore faut-il savoir les gérer de façon efficace et intelligente : c’est ce qu’on appelle le « Data management » ou « gestion des données ». Explorons ce concept ensemble. Sommaire : 1. Présentation du Data Management 2. Explication de la […]

Lire l'article