INTELLIGENCE ARTIFICIELLE

Microsoft s’engage pour une IA responsable

Comment s’assurer que les algorithmes que nous développons respectent des principes responsables ? Est‐il possible de concevoir une IA qui ne reproduise pas les biais sociétaux ? Laurence Lafont, directrice de la Division Marketing & Operations de Microsoft France, nous partage la vision du groupe.

 

Microsoft profile picture
Laurence Lafont

Directrice de la Division Marketing &

Operations, Microsoft France

 

Nous trouvons l’intelligence artificielle partout dans notre quotidien : outils de traduction simultanée, reconnaissance d’images ou de voix, maintenance prédictive… Pour de nombreuses tâches, les algorithmes, de mieux en mieux entraînés, sont aussi performants que nous. De fait, l’IA nous offre de nombreuses et prometteuses opportunités. Pour autant, leur multiplication soulève de nombreuses questions.

 

Pouvons‐nous faire confiance aux algorithmes ? Ont‐ils été conçus selon des principes responsables, sur des jeux de données non biaisés ? Vont‐ils avoir un impact positif sur la société ? Selon Laurence Lafont, Microsoft doit apporter des réponses à ces questions légitimes, par des engagements très concrets.

 

L’IA dans la distribution : transformer le marché

Démarquez votre commerce de détail de ses concurrents avec l’intelligence artificielle (IA). Consultez l’Ebook interactif.

Télécharger

Quels sont les engagements de Microsoft pour créer une IA responsable ?

 

En tant qu’un des leaders du numérique, Microsoft adopte une vision positive et optimiste de l’IA. Laurence Lafont explique que, dans le cadre du développement d’une IA responsable, le champ des opportunités est extrêmement large pour mieux servir les usagers de demain. Des convictions qui ne seraient pas suffisantes pour développer une IA responsable sans les engagements suivants : l’équité, l’impartialité, la fiabilité, la responsabilité, la confidentialité, la transparence et l’inclusion.

 

  • Traiter toutes les personnes de manière équitable

Les ordinateurs ont, en théorie, un raisonnement purement logique. L’IA permet donc de contribuer à des prises de décisions plus justes. Toutefois, pour une prise de décision éclairée, il reste nécessaire d’entraîner les humains à comprendre et interpréter la signification et l’interprétation des résultats proposés par l’IA.

  • Fonctionner de manière fiable et sûre

Il est essentiel de créer des cadres clairs et des moyens de contrôle intégrés pour que les systèmes d’IA puissent être fiables en toutes circonstances.

Microsoft est particulièrement attentifs à la protection contre des prises de contrôle ou contre l’introduction de données malveillantes dans les dispositifs d’IA.

Nous veillons également à ce que l’humain puisse toujours être en mesure de décider d’arrêter le système.

  • Rendre les personnes qui conçoivent et déploient les systèmes d’IA responsables

La question de la responsabilité est essentielle. Nous concevons les algorithmes, ils sont donc à notre image. Ainsi, ils peuvent tout à fait reproduire, voire accroître les inégalités préexistantes. Laurence Lafont cite l’exemple d’une entreprise du digital qui, pour faciliter son processus de recrutement, a déployé un algorithme de tri des candidatures pour des postes techniques. Résultat : 80 % des CV sélectionnés étaient masculins. Pourquoi ? Parce que la machine avait été entraînée à partir de CV réels reçus par l’entreprise pour ces postes. Des CV en très grande majorité masculins. Mettre en place des panels de contrôle interne et d’audit peut permettre de placer la responsabilité des systèmes sur ceux qui les conçoivent et les déploient pour lutter par exemple contre cet effet de biais.

  • Garantir la transparence dans l’utilisation des données

Sans data, pas d’IA. Si la donnée doit être utilisée pour servir les utilisateurs et leur offrir des services plus performants et innovants, en aucun cas elle ne doit être exploitée à leur insu. Et Laurence Lafont insiste bien sur ce dernier point : Microsoft est un opérateur de plateformes qui prend des engagements sur la non‐utilisation des données dans un contexte autre que celui pour lequel elles lui ont été fournies.

Quant aux systèmes d’IA, ils doivent être compréhensibles : il ne suffit pas de simplement publier les algorithmes, mais aussi de les expliquer. Pourquoi ? Parce que chacun doit pouvoir appréhender les fondements des décisions qui ont un impact sur sa vie.

  • Assurer la sécurité et le respect de la vie privée

La confidentialité des données doit être un pilier du développement des systèmes d’intelligence artificielle. Pour cela, ces derniers doivent intégrer des règles et principes sur la protection des données. Et des techniques de séparation des données personnelles des données d’informations peuvent également être mises en place.

  • Concevoir une IA inclusive

Comment faire pour que l’IA prenne en compte et intègre un vaste champ d’expériences humaines ? Mettre en place des équipes de conception d’origines diverses peut permettre aux développeurs d’anticiper la variété des besoins et de n’exclure personne. C’est ainsi que les systèmes d’IA pourront permettre à chacun de mieux s’intégrer.

Microsoft travaille ainsi sur les technologies qui permettent de recréer du lien social. Un exemple parmi d’autres : le développement de l’application Seeing AI qui permet à des personnes mal voyantes d’utiliser sur leur smartphone un logiciel qui détecte leur environnement en temps réel et peut ainsi leur décrire l’espace et le contexte dans lesquels ils se trouvent.

 

À lire aussi : IA & éthique : « Il faut savoir prendre du recul » – Cécile Wendling

 

Transformer le secteur de la vente au détail à l’ère numérique

Dans cet article, nous abordons les possibilités qu’a le commerce de détail de grandir, s’adapter et évoluer pour répondre aux besoins changeants des clients et de capturer de nouvelles opportunités.

Télécharger

Des engagements qui se traduisent par des actions concrètes

 

Réfléchir et agir autour de l’utilisation d’une IA responsable en France, c’est possible ? C’est ce qu’a souhaité Microsoft en lançant le collectif Impact AI avec des startups, chercheurs et grands groupes partenaires, afin d’ établir un cadre théorique pour une IA responsable.

 

À lire aussi : Comment se former aux métiers de l’intelligence artificielle ?

 

Ces engagements et initiatives viennent nourrir la vision « AI for good » dans laquelle l’IA est utilisée à des fins utiles à la société. Une vision qui se structure en trois grands programmes :

  • AI for Earth : mettre à disposition l’IA et les logiciels de cloud pour résoudre des problèmes climatiques mondiaux.
  • AI for accessibility : amplifier les capacités humaines de plus d’un milliard de personnes en situation de handicap dans le monde. Et ce, grâce à l’intelligence artificielle.
  • AI for humanitarian action : fournir aux organisations humanitaires partenaires, dont Amnesty International, des subventions financières et la technologie nécessaires pour résoudre les problèmes humanitaires mondiaux.

 

Des objectifs ambitieux, fondés sur des valeurs intemporelles dans lesquels le Groupe croit fermement et s’investit pleinement.

 

Pour en savoir, rendez‐vous sur le site Microsoft AI https://www.microsoft.com/fr-fr/ai