L'IA crée des opportunités inégalées pour les entreprises de toutes tailles et de tous secteurs. Nous voyons nos clients adopter les services d'IA pour stimuler l'innovation, accroître la productivité et résoudre des problèmes cruciaux pour l'humanité, tels que la mise au point de traitements médicaux révolutionnaires et de nouveaux moyens de relever les défis du changement climatique.
Dans le même temps, il existe des préoccupations légitimes quant à la puissance de la technologie et à la possibilité qu'elle soit utilisée pour causer des dommages plutôt que des avantages. Dans ce contexte, il n'est pas surprenant que les gouvernements du monde entier examinent comment les lois et réglementations existantes peuvent être appliquées à l'IA et réfléchissent aux nouveaux cadres juridiques qui pourraient s'avérer nécessaires. La mise en place de garde-fous pour une utilisation responsable de l'IA ne se limitera pas aux entreprises technologiques et aux gouvernements : chaque organisation qui crée ou utilise des systèmes d'IA devra développer et mettre en œuvre ses propres systèmes de gouvernance. C'est pourquoi nous annonçons aujourd'hui trois engagements clients en matière d'IA afin d'aider nos clients dans leur parcours d'utilisation responsable de l'IA.
Tout d'abord, nous partagerons ce que nous apprenons sur le développement et le déploiement de l'IA de manière responsable et nous vous aiderons à apprendre à faire de même. Microsoft a entrepris un voyage d'IA responsable depuis 2017, en exploitant les compétences de près de 350 ingénieurs, avocats et experts en politiques dédiés à la mise en œuvre d'un processus de gouvernance robuste qui guide la conception, le développement et le déploiement de l'IA de manière sûre, sécurisée et transparente. Plus précisément, nous sommes :
- Partager l'expertise : Nous nous engageons à partager ces connaissances et cette expertise avec vous en publiant les documents clés que nous avons élaborés au cours de ce processus afin que vous puissiez tirer parti de nos expériences. Il s'agit notamment de notre norme sur l'IA responsable, du modèle d'évaluation de l'impact de l'IA, du guide d'évaluation de l'impact de l'IA, des notes sur la transparence et des guides détaillés sur la mise en œuvre de notre approche de l'IA responsable par la conception.
- Fournir un programme de formation : Nous partagerons également le travail que nous effectuons pour mettre en place une pratique et une culture de l'IA responsable chez Microsoft, y compris les éléments clés du programme que nous utilisons pour former les employés de Microsoft.
- Créer des ressources dédiées : Nous investirons dans des ressources et des compétences spécialisées dans des régions du monde entier pour répondre à vos questions sur le déploiement et l'utilisation responsables de l'IA.
Deuxièmement, nous créons un programme d'assurance en matière d'IA pour vous aider à vous assurer que les applications d'IA que vous déployez sur nos plateformes répondent aux exigences légales et réglementaires en matière d'IA responsable. Ce programme comprendra les éléments suivants :
- Soutien à l'engagement des régulateurs : Nous avons une grande expérience dans l'aide aux clients du secteur public et des industries hautement réglementées pour gérer le spectre des questions réglementaires qui se posent lorsqu'il s'agit de l'utilisation des technologies de l'information. Par exemple, dans le secteur mondial des services financiers, nous avons travaillé en étroite collaboration pendant plusieurs années avec nos clients et les autorités de régulation pour veiller à ce que ce secteur puisse poursuivre sa transformation numérique sur le cloud tout en respectant ses obligations réglementaires. L'un des enseignements tirés de cette expérience a été l'obligation faite aux institutions financières de vérifier l'identité de leurs clients, d'établir des profils de risque et de surveiller les transactions afin de détecter toute activité suspecte, ce que l'on appelle l'obligation de "connaître son client". Nous pensons que cette approche peut s'appliquer à l'IA dans ce que nous appelons "KY3C", une approche qui crée certaines obligations de connaître son nuage, ses clients et son contenu. Nous souhaitons travailler avec vous pour appliquer KY3C dans le cadre de notre programme d'assurance de l'IA.
- Mise en œuvre du cadre de gestion des risques : Nous attesterons de la manière dont nous mettons en œuvre le cadre de gestion des risques liés à l'IA récemment publié par l'Institut national américain des normes et de la technologie (NIST) et nous ferons part de notre expérience dans le cadre de l'important travail en cours du NIST dans ce domaine.
- Conseils de clients : Nous réunirons les clients au sein de conseils de clients afin de connaître leur avis sur la manière dont nous pouvons fournir la technologie et les outils d'IA les plus pertinents et les plus conformes.
- Défense de la réglementation : Enfin, nous jouerons un rôle actif auprès des gouvernements pour promouvoir une réglementation efficace et interopérable de l'IA. Le plan Microsoft pour la gouvernance de l'IA, lancé récemment, présente nos propositions aux gouvernements et aux autres parties prenantes pour la mise en place de cadres réglementaires appropriés pour l'IA. Nous avons mis à disposition une présentation de ce plan par le vice-président et président de Microsoft, Brad Smith, ainsi qu'un livre blanc qui l'analyse en détail.
Troisièmement, nous vous aiderons à mettre en œuvre vos propres systèmes d'IA de manière responsable et nous développerons des programmes d'IA responsables pour notre écosystème de partenaires.
- Ressources dédiées : Nous créerons une équipe dédiée d'experts juridiques et réglementaires en matière d'IA dans des régions du monde entier en tant que ressource pour vous soutenir dans la mise en œuvre de systèmes de gouvernance de l'IA responsables dans vos entreprises.
- Soutien des partenaires : Un grand nombre de nos partenaires ont déjà créé des pratiques complètes pour aider les clients à évaluer, tester, adopter et commercialiser des solutions d'IA, y compris la création de leurs propres systèmes d'IA responsables. Nous lançons un programme avec des partenaires sélectionnés pour tirer parti de cette expertise afin d'aider nos clients mutuels à déployer leurs propres systèmes d'IA responsable. Aujourd'hui, nous pouvons annoncer que PwC et EY sont nos partenaires de lancement pour ce programme passionnant.
En fin de compte, nous savons que ces engagements ne sont qu'un début et que nous devrons les renforcer à mesure que la technologie et les conditions réglementaires évolueront. Mais nous sommes également enthousiastes à l'idée de pouvoir collaborer plus étroitement avec nos clients, alors que nous poursuivons ensemble notre voyage vers l'IA responsable.