Microsoft va restreindre l'accès à l'IA désormais jugée trop risquée

Microsoft va restreindre l’accès à l’IA désormais jugée trop risquée

 

Microsoft s’est engagé à restreindre l’accès aux outils d’intelligence artificielle conçus pour prédire les émotions, le sexe et l’âge à partir d’images, et limitera l’utilisation de ses modèles de reconnaissance faciale et audio génératifs dans Azure.

Le géant Windows en a fait la promesse mardi tout en partageant également son soi-disant Responsible AI Standard, un document [PDF] dans lequel la société américaine s’est engagée à minimiser tout dommage infligé par son logiciel d’apprentissage automatique. Cet engagement comprenait des assurances que l’entreprise évaluera l’impact de ses technologies, documentera les données et les capacités des modèles et appliquera des directives d’utilisation plus strictes.

Cela est nécessaire car – et vérifions simplement les notes ici – il n’y a apparemment pas encore assez de lois réglementant l’utilisation de la technologie d’apprentissage automatique. Ainsi, en l’absence de cette législation, Microsoft n’aura qu’à se forcer à faire ce qu’il faut.

“Le besoin de ce type de conseils pratiques augmente”, a déclaré Natasha Crampton, responsable de l’IA chez Microsoft, dans un communiqué. “L’IA fait de plus en plus partie de nos vies, et pourtant, nos lois sont à la traîne. Elles n’ont pas pris en compte les risques uniques de l’IA ni les besoins de la société. Bien que nous constations des signes d’expansion de l’action gouvernementale en matière d’IA, nous reconnaissons également notre responsabilité d’agir. Nous pensons que nous devons nous efforcer de garantir que les systèmes d’IA sont responsables dès la conception.”

Nous pensons que nous devons travailler pour garantir que les systèmes d’IA sont responsables dès la conception

Ainsi, dans le but d’empêcher les développeurs d’apprentissage automatique de causer des conflits et de la misère à l’aide de ses technologies, Microsoft met fin à l’accès aux outils formés pour classer le sexe, l’âge et les émotions des personnes, et analyser leur sourire, leur pilosité faciale, leurs cheveux, et le maquillage, via son API Face dans Azure. Les nouveaux clients ne pourront pas utiliser cette API dans le cloud de Microsoft, et les clients existants ont jusqu’au 30 juin 2023 pour migrer vers d’autres services avant que le logiciel ne soit officiellement retiré.

Bien que ces fonctionnalités ne soient pas proposées via sa plate-forme API, elles seront toujours utilisées dans d’autres parties de l’empire de Microsoft. Par exemple, les fonctionnalités seront intégrées à Seeing AI, une application qui identifie et raconte des descriptions de personnes et d’objets pour les personnes ayant une déficience visuelle.

Les experts débattent depuis longtemps de l’exactitude et de la valeur des modèles d’apprentissage automatique utilisés pour prédire les sentiments et le sexe des gens, citant également des problèmes de confidentialité. On craint que les logiciels alimentés par l’IA, par des classifications incorrectes ou injustes, ne rendent automatiquement la vie de certaines personnes difficile, et donc l’utilisation de cette technologie devrait être réglementée ou restreinte.

L’accès à d’autres types d’outils Microsoft considérés comme risqués, tels que la génération audio réaliste (mettre des mots dans la bouche de quelqu’un) et la reconnaissance faciale (utile pour la surveillance) sera restreint. Les nouveaux clients devront postuler pour utiliser les outils ; Microsoft évaluera si les applications qu’ils souhaitent développer sont appropriées ou non. Les clients existants devront également obtenir l’autorisation de continuer à utiliser ces outils pour leurs produits à partir du 30 juin 2023.

Imiter le son de la voix de quelqu’un à l’aide de modèles d’IA génératifs n’est désormais plus autorisé sans le consentement de l’orateur. Les produits et services créés à l’aide du logiciel Custom Neural Voice de Microsoft devront également divulguer que les voix sont fausses. Les directives d’utilisation des outils de reconnaissance faciale de l’entreprise sont également plus strictes si elles sont appliquées dans des espaces publics et ne peuvent pas être utilisées pour suivre des individus à des fins de surveillance.

En 2020, Microsoft s’est engagé à cesser de vendre des logiciels de reconnaissance faciale aux polices d’État et locales aux États-Unis jusqu’à ce que la technologie soit réglementée par la loi fédérale. Deux ans plus tard, l’entreprise tient toujours sa promesse. Le gouvernement fédéral, cependant, peut toujours utiliser ces outils mais devra respecter les directives d’utilisation mises à jour, nous a dit un porte-parole de Microsoft.

“Il s’agit d’une période critique d’établissement de normes pour l’IA”, a ajouté Crampton au New York Times. “Nous espérons pouvoir utiliser notre norme pour essayer de contribuer à la discussion brillante et nécessaire qui doit avoir lieu sur les normes auxquelles les entreprises technologiques doivent être tenues.” ®

#Microsoft #restreindre #laccès #lIA #désormais #jugée #trop #risquée