Intelligence artificielle

Le comité d’éthique de Google AI avec une puissance réelle est toujours là

Un conseil composé de cadres internes soulève des questions sur la responsabilité.

Il y a deux semaines, Google a mis en place un groupe d’experts externes chargé d’examiner des questions éthiques épineuses liées à l’intelligence artificielle. Cela implosa rapidement. Après une révolte du personnel contre les membres du panel, la société a dissous le panel jeudi après-midi. Ses membres n’ont même jamais eu la chance de se rencontrer.

Cet épisode illustre les difficultés rencontrées par Google face aux implications sociétales de la puissante technologie qui façonne son avenir. Il est difficile d’exagérer l’importance de l’IA pour l’entreprise. « C’est plus profond que, je ne sais pas, l’électricité ou le feu », a déclaré Sundar Pichai, président-directeur général de la société, l’année dernière. Mais Google a été au centre d’un débat public grandissant sur la manière dont les systèmes automatisés pourraient désavantager les groupes vulnérables ou entraîner des pertes d’emplois à grande échelle, et sur la question de savoir si l’IA devrait être incorporée à l’armement.

La capacité du panel de Google – le Conseil consultatif externe sur les technologies de pointe, ou ATEAC – à faire face à de tels problèmes n’a jamais été tout à fait claire. Mais un autre groupe portant un nom presque identique – le Conseil de révision des technologies avancées – détient un réel pouvoir pour définir l’approche de Google face à ses dilemmes éthiques.

La société décrit cet autre conseil, qu’elle a réuni l’année dernière, comme une tentative de « représenter des points de vue internationaux, transversaux et multifonctionnels pouvant aller au-delà des préoccupations commerciales immédiates », selon des documents consultés par Bloomberg News. Il n’a pas rendu public le nom de ses membres, mais il inclut certaines des personnes les plus influentes de la société, qui travaillent depuis des années avec Pichai et son patron, le cofondateur de Google, Larry Page, selon des personnes proches du groupe.

Ce conseil est dirigé par Kent Walker, le responsable juridique de Google. Les autres membres sont Urs Hölzle, responsable des infrastructures de Google; Jeff Dean, responsable de l’IA; Jacquelline Fuller, vice-présidente de Google.org; Maggie Johnson, vice-présidente de l’éducation et des programmes universitaires; et Mustafa Suleyman, cofondateur de DeepMind, une firme de recherche sur l’IA appartenant à la société mère de Google, Alphabet Inc.

Kent Walker, responsable juridique de Google
Kent Walker, responsable juridique de Google

Les critiques habitués au conseil le voient comme un lait de chaux. Selon eux, un conseil d’administration composé de hauts dirigeants risque peu de servir de contrôle sérieux à Google dans des situations où ses principes éthiques déclarés se heurtent à ses intérêts financiers. Et de nombreuses personnes au sein de la société ont déclaré que l’ordre du jour et les décisions de ce conseil d’entreprise n’étaient pas claires plusieurs mois après son lancement. Ces personnes ont demandé à ne pas être identifiées par peur des représailles.

Lorsqu’on lui a demandé de commenter, un porte-parole de Google a indiqué en décembre un article de blog présentant le groupe, soulignant les progrès de l’ entreprise dans la mise en œuvre de ses principes éthiques. sur l’IA. À cette époque, la société avait effectué 100 examens. Dans l’article de blog, Walker a indiqué que la société avait décidé de ne pas utiliser un outil de reconnaissance faciale d’usage général «avant d’aborder d’importantes questions relatives à la technologie et aux politiques».

De nombreuses entreprises technologiques ont récemment établi des principes éthiques pour guider leurs travaux sur l’IA. Microsoft Corp .; Facebook Inc .; et Axon, qui fabrique des pistolets paralysants et des caméras pour le corps pour les services de police, disposent désormais tous de conseils consultatifs sur la question. Mais les experts se demandent si ces actions sont principalement conçues pour éviter les nouvelles réglementations gouvernementales. « Les codes éthiques peuvent détourner les critiques en reconnaissant l’existence de problèmes , sans rien céder au pouvoir de réglementer ou de transformer la manière dont la technologie est développée et appliquée», écrit dans un rapport publié en 2018 le AI Now Institute, groupe de recherche de l’Université de New York. « Nous n’avons pas vu de supervision ni de responsabilité forte pour soutenir ces engagements éthiques. »

Selon le rapport d’Amnesty International, Google avait mis au point une version censurée de son moteur de recherche pour le marché chinois, même après avoir publié un ensemble de principes qui semblaient exclure un tel projet pour des raisons liées aux droits de l’homme.

L’année dernière, la stratégie de Google en matière d’intelligence artificielle avait fait l’objet de graves préoccupations éthiques, lorsque des révélations concernant son travail dans le cadre d’une initiative de drones appelée Project Maven ont entraîné des protestations du personnel et des arrêts de travail. En juin dernier, le groupe a publié un ensemble de principes éthiques sur l’IA et créé plusieurs comités chargés de déterminer si les produits proposés répondent aux critères. Ces groupes s’apparentent à la manière dont Google examine les services, tels que la publicité et les logiciels mobiles, pour les règles de confidentialité et la responsabilité légale. Pour AI, il y a une « équipe d’innovation responsable », dirigée par Jen Gennai, 12 ans d’expérience chez Google, qui gère les « opérations au jour le jour » et renvoie les problèmes à un conseil d’administration général, selon le blog publié en décembre par la société. Un autre groupe plus important de conseillers, composé de personnel moins expérimenté, est sur appel pour une expertise interne sur les produits et protocoles techniques.

Le conseil de révision de la technologie avancée, « contribuera à résoudre les problèmes complexes soulevés par le processus de révision [de Google] », indique le document interne.

La courte vie du conseil externe était une étude de cas de la politique interne vitriolique de la société. Quelques heures après sa formation, les membres du personnel qui s’opposaient à l’inclusion de Kay Coles James, présidente de la Heritage Foundation, et ses commentaires publics antérieurs sur les personnes homosexuelles et transgenres et le changement climatique, se sont rapidement indignés. Une pétition réclamant son renvoi a commencé à circuler. Un membre du conseil a démissionné, tandis qu’un autre a défendu la décision de rester. Les organes de presse de droite ont publié des messages de fuite d’employés critiquant James. Breitbart News a décrit les messages qui critiquaient sévèrement James comme des « frottis ». La Fondation du patrimoine n’a pas immédiatement répondu à une demande de commentaire vendredi.

Joanna Bryson, professeure d’informatique à l’Université de Bath et invitée au conseil d’administration externe de Google, a décrit cet effondrement comme un revers majeur. «En fin de compte, nous sommes revenus au statu quo, ce qui personnellement est selon moi inacceptable», a-t-elle écrit dans un courrier électronique.

Google ne semble pas vouloir proposer une approche qui satisfasse tout le monde. Jeudi, lorsque la société a fermé son conseil externe, une déclaration de la société a indiqué qu’elle « retournait à la planche à dessin ». Il n’a fait aucune mention du panneau interne.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page