Amazon prêt à se révolter face à la reconnaissance faciale

Amazon prêt à se révolter face à la reconnaissance faciale
4.6 (91.25%) 16 votes


Copyright de l'image
Amazone

Légende

La reconnaissance peut associer des photos à des bases de données contenant des visages de millions de personnes

L'opposition à la vente par Amazon de sa technologie de reconnaissance faciale aux forces de police américaines devrait se dissiper lors de son assemblée générale annuelle de mercredi.

Les actionnaires voteront deux fois sur la question.

Tout d’abord, la question de savoir si la société devrait cesser d’offrir son système de reconnaissance aux agences gouvernementales.

Et deuxièmement, sur l'opportunité de commander une étude indépendante pour déterminer si la technologie menace les droits civils des personnes.

Les votes ne sont pas contraignants, ce qui signifie que les dirigeants ne doivent pas prendre de mesures spécifiques, quel que soit le résultat.

Amazon avait tenté de bloquer les votes, mais la Securities and Exchange Commission lui avait dit qu’elle n’avait pas le droit de le faire.

Copyright de l'image
Amazone

Légende

La reconnaissance donne un score de confiance quant à savoir si le visage d'une personne est un match

"Nous espérons pouvoir obtenir un soutien ferme de la part d'autres investisseurs, ce qui incitera la société à ne pas continuer à vendre aux gouvernements tant qu'elle ne sera pas en mesure d'atténuer les risques", a déclaré Mary Beth Gallagher. de la Coalition des trois États pour l’investissement responsable a déclaré à la BBC.

"Cela pourrait permettre une surveillance massive, même si la technologie était précise à 100%, ce qui, bien sûr, ne l’est pas.

"Nous ne voulons pas que les forces de l'ordre s'en servent, en raison de l'impact que cela aura sur la société. Cela pourrait limiter la volonté des gens de se rendre dans des espaces publics où ils pensent pouvoir être suivis".

Amazon a demandé à ses actionnaires de voter contre les propositions affirmant qu’il n’avait reçu aucun rapport signalant que le système avait été utilisé de manière préjudiciable.

"[La reconnaissance est] un outil puissant […] permettant aux forces de l'ordre et aux organismes gouvernementaux d'attraper les criminels, de prévenir le crime et de retrouver les personnes disparues".

"Les nouvelles technologies ne doivent pas être interdites ou condamnées en raison de leur utilisation abusive potentielle."

Copyright de l'image
Amazone

Légende

Amazon a promu sa technologie en tant qu'outil de lutte contre la criminalité

Matchs de visage

Rekognition est un outil en ligne qui fonctionne à la fois avec des vidéos et des images fixes et permet aux utilisateurs de faire correspondre des visages à des sujets pré-numérisés dans une base de données contenant jusqu'à 20 millions de personnes.

Ce faisant, il donne un score de confiance quant à l'exactitude de l'ID.

En outre, il peut:

  • détecter les "contenus dangereux", par exemple s'il y a de la nudité ou des "vêtements révélateurs" à l'écran
  • suggérer si un sujet est un homme ou une femme
  • déduire l'humeur d'une personne
  • repérer du texte dans des images et le transcrire pour analyse

Amazon ne devrait utiliser l'installation que s'il existe un indice de confiance supérieur ou égal à 99%, et indique que son utilisation devrait être transparente.

Copyright de l'image
Amazone

Légende

La reconnaissance peut être utilisée pour signaler un "contenu suggestif"

Mais une force qui a utilisé la technologie – le bureau du shérif du comté de Washington à Hillsboro, dans l'Oregon – a déclaré qu'elle l'avait fait sans imposer de seuil de confiance minimal et qu'elle avait exécuté des esquisses de police en noir et blanc dans le système en plus de photos.

UNE . Mais Amazon n'a pas révélé le nombre d'autorités publiques qui l'ont fait.

Algorithmes biaisés?

Une partie de l’attrait de Rekognition réside dans le fait qu’il est moins coûteux à utiliser que plusieurs technologies rivales de reconnaissance faciale.

Toutefois, une étude publiée en janvier par des chercheurs du Massachusetts Institute of Technology et de l'Université de Toronto a suggéré que les algorithmes d'Amazon étaient plus biaisés en termes de sexe et de race que quatre produits concurrents.

avait un taux d'erreur de 0% lors de la classification des hommes à la peau plus claire dans un test, mais un taux d'erreur de 31,4% lors de la catégorisation des femmes à la peau plus foncée.

Copyright de l'image
Amazone

Légende

Amazon a déclaré avoir effectué des tests sur des images d'hommes et de femmes de six ethnies différentes pour vérifier les signes de partialité.

Amazon a déclaré que les chercheurs avaient utilisé "une version obsolète" de son outil et que ses propres vérifications n'avaient révélé "aucune différence" dans la classification par sexe des différentes ethnies.

Malgré tout, l’opposition à la reconnaissance a également été et.

Mme Gallagher a déclaré que les actionnaires étaient préoccupés par le fait que les ventes répétées de Rekognition à la police risquaient de nuire au statut d'Amazon en tant que "l'une des institutions les plus fiables aux États-Unis".

Mais l'un des directeurs d'Amazon Web Services – la division responsable – a déclaré qu'il incombait aux politiciens de décider si des restrictions devaient être mises en place.

Copyright de l'image
Amazone

Légende

La reconnaissance peut donner un score de confiance pour plusieurs caractéristiques différentes

"Les bonnes organisations pour gérer ce problème sont les décideurs du gouvernement", a déclaré Ian Massingham à la BBC.

«La seule chose que je dirais à propos de la technologie d’apprentissage en profondeur est qu’une grande partie de la technologie est basée sur des recherches universitaires accessibles au public. Vous ne pouvez donc pas vraiment remettre le génie dans la bouteille.

"Une fois la recherche publiée, il est difficile de" désinventer "quelque chose.

"Notre objectif est donc de nous assurer que la gouvernance et les contrôles législatifs appropriés sont en place."

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *