Technologies

IBM a abandonné la technologie de reconnaissance faciale

IBM abandonne la technologie de reconnaissance faciale en raison de préoccupations éthiques concernant son utilisation

Dans une lettre adressée au Congrès américain, le PDG d’IBM déclare que cette mesure s’inscrit dans le cadre de son rejet de l’utilisation d’innovations qui favorisent « le racisme et l’injustice sociale ».

Le retrait d'IBM ne signifie pas la fin de la reconnaissance faciale
Manifestation à San Francisco le 30 mai pour protester contre la mort de George Floyd à Minneapolis.

La société américaine IBM a annoncé qu’elle ne commercialisera plus son propre logiciel de reconnaissance faciale « à usage général », selon le PDG de la société, Arvind Krishna, dans une lettre ouverte au Congrès américain. Cette initiative fait partie, dit-il, de son rejet de l’utilisation de la technologie dans la promotion du « racisme et de l’injustice sociale ».

L’entreprise n’a pas expliqué quel est son calendrier et quels produits spécifiques seront touchés par la mesure, bien que des sources de l’industrie suggèrent qu’il pourrait s’agir des services de reconnaissance visuelle basés sur le cloud. Les sources de l’entreprise en Espagne n’ont pas fourni d’autres explications.

M. Krishna a déclaré dans sa lettre que la société « s’oppose fermement » à l’utilisation de toute technologie pour « la surveillance vidéo de masse, le profilage racial, les violations des droits de l’homme et des libertés fondamentales ». C’est pourquoi, souligne-t-il, « elle n’offre plus le logiciel d’analyse ou de reconnaissance faciale à usage général ».

Cette annonce intervient au moment où les protestations contre les excès de la police, et en particulier contre les minorités, se sont répandues à travers les États-Unis à la suite du décès de George Floyd lors d’une arrestation à Minneapolis.

Arvind Krishna, PDG d'IBM, sur une photo d'archive.
Arvind Krishna, PDG d’IBM, sur une photo d’archive.

Le PDG de l’entreprise a également fait valoir qu' »il est temps d’entamer un dialogue national sur la question de savoir si ces systèmes doivent être utilisés par les agences de sécurité nationale.

Comme il s’agit d’une technologie qui peut être biaisée, il estime qu’il est de la responsabilité des entreprises de veiller à ce que l’intelligence artificielle « aide les forces de l’ordre à assurer la sécurité des citoyens ».

À cet égard, M. Krishna a déclaré que le Congrès devrait faire plus pour « lutter contre les abus de la police, par exemple porter davantage d’affaires devant la Cour fédérale ou supprimer l’immunité qui empêche les citoyens de demander réparation lorsque leurs droits constitutionnels sont violés ».

« L’intelligence artificielle est un outil puissant qui peut aider les forces de l’ordre à assurer la sécurité des citoyens », a-t-il déclaré. « Mais les vendeurs et les utilisateurs des systèmes d’Al ont une responsabilité partagée de veiller à ce que l’impartialité d’Al soit testée, en particulier lorsqu’elle est utilisée dans le cadre de l’application de la loi, et que ce test de partialité soit vérifié et signalé.

« Je pense que c’est une bonne nouvelle qu’une des grandes entreprises appelle enfin à un débat éthique sur l’utilisation de la technologie de reconnaissance faciale », a déclaré à EL PAÍS Monica Villas, ancienne cadre d’IBM et maintenant professeur à l’IE et à l’Institut immunitaire.

Sur le plan économique, M. Krishna a souligné la nécessité de « créer des voies plus ouvertes et plus équitables pour que tous les Américains puissent acquérir des compétences et une formation », un besoin « particulièrement aigu dans les communautés de couleur ».

C’est pourquoi il préconise la promotion de programmes comme P-Tech pour les études secondaires, avec « une forte concentration sur les étudiants des zones mal desservies par l’éducation aux États-Unis », et les Pell Grants, qui sont « une voie importante pour les étudiants de couleur d’aller à l’université ».

Tags

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité