La panne d'image de Facebook nous rappelle à quel point l'accessibilité aux médias sociaux est mauvaise

La panne d'image de Facebook nous rappelle à quel point l'accessibilité aux médias sociaux est mauvaise
4.5 (89.47%) 19 votes



<div _ngcontent-c14 = "" innerhtml = "

Getty Images.

Getty

La brève panne d'image de Facebook plus tôt cette semaine a montré au grand public à quel point mal accessible est vraiment dans notre Web social moderne premier visuel. Alors que la plupart des principales plates-formes de médias sociaux offrent aux utilisateurs une certaine capacité de fournir un texte descriptif ALT pour leurs images et vidéos, peu d'utilisateurs prennent le temps de rédiger des descriptions textuelles accessibles de leurs images. Au lieu de cela, la plupart des textes ALT sur les plateformes sociales sont générés automatiquement par des algorithmes d'apprentissage approfondis qui génèrent un ensemble de balises de métadonnées délimitées par des virgules des principaux sujets ou activités décrits dans l'image. La qualité de ces étiquettes est ridicule mal aujourd'hui, mais même le gouvernement américain, qui applique depuis longtemps des normes d'accessibilité strictes pour le contenu Web du gouvernement, ne nécessite pas que le contenu social soit rendu accessible. Alors que les gouvernements et la communauté technologique sont investir fortement en biais d'IA, ils se soucient peu de biais d'accessibilité. Ceux qui ont des capacités différentes seront-ils simplement laissés pour compte par le futur Web?

Pendant un bref instant cette semaine, les utilisateurs de Facebook et Instagram ont vu des boîtes vides où leurs images auraient dû apparaître, ainsi qu'un texte ALT descriptif et horriblement mauvais, illustrant la manière dont les algorithmes de Facebook ont ​​été conçus pour cette image.

Malheureusement, c'est le monde que vivent quotidiennement les personnes aux capacités visuelles différentes.

Pour ceux qui accèdent au Web par l’intermédiaire de lecteurs d’écran à texte seulement, ils dépendent entièrement de la description textuelle des images fournie par leurs balises ALT.

Malheureusement, peu d'utilisateurs de Facebook et d'Instagram ont eu la peine de fournir de telles descriptions pour leurs images. Bien que les deux sites permettent aux utilisateurs de saisir une description textuelle de chaque image à lire par des lecteurs d'écran pour ceux qui ont des capacités visuelles différentes, très peu d'utilisateurs le font. Même les décideurs politiques qui ont misé toute leur carrière sur accessibilité et les divisions sont trop occupées à courir après la renommée virale pour être dérangées par la création de leurs propres flux de médias sociaux accessible pour leurs électeurs qui utilisent des lecteurs d'écran. En effet, le gouvernement n’a pas réellement exiger qu'ils le fassent.

Aujourd'hui, la majorité du texte ALT sur les médias sociaux est automatiquement générée par des algorithmes d'apprentissage en profondeur qui génèrent une chaîne de balises de métadonnées délimitées par des virgules décrivant les objets et activités courants décrits dans l'image. Seules les entités pour lesquelles un modèle a été préalablement formé peuvent être reconnues.

La précision est comiquement mauvaise. Contrairement aux systèmes de reconnaissance d'images de pointe utilisés dans le monde commercial, les modèles actuellement déployés par les sites de médias sociaux semblent être optimisés pour la vitesse plutôt que pour l'expressivité et la précision.

Toutefois, pour la très grande majorité des utilisateurs Web, ce taux d'erreur est totalement invisible. L’utilisateur moyen des médias sociaux ne voit jamais le texte ALT du Web, mais se plonge dans le beau monde vibrant de l’imagerie Web haute résolution moderne.

La brève panne d'image qui a eu lieu plus tôt cette semaine a entraîné une couverture médiatique considérable, les journalistes et les experts ayant constaté pour la première fois à quel point ces balises ALT étaient mauvaises.

Malheureusement, la majeure partie de cette couverture s’est tournée vers les résultats, en plaisantant au sujet des tags particulièrement mauvais et en soulignant à quel point ils sont reconnaissants du fait que peu d’utilisateurs doivent se fier à ces tags ALT.

Malheureusement, pour ceux qui s’appuient sur des lecteurs d’écran, ces balises sont leur façon de voir les images du Web.

Pour eux, la qualité abominable des tags d’aujourd’hui n’est pas une blague. Cela limite profondément leur capacité à utiliser nos plateformes sociales de plus en plus visuelles.

En résumé, malgré l’importance accordée par la société aux préjugés liés à l’IA, il n’a guère prêté attention au préjugé lié à l’accessibilité. Contrairement aux effets de biais algorithmiques, qui sont ressentis par tous, le biais d'accessibilité est invisible pour l'internaute moyen et le correctif le plus simple, obliger les utilisateurs à saisir des descriptions des images qu'ils publient, créerait une friction d'interface que peu d'utilisateurs semblent vouloir accepter.

Alors que le Web devient de plus en plus visuel, le Web laisse de plus en plus de place dans l’ensemble de la société, les isolant du monde numérique.

Même le gouvernement américain, qui défend depuis longtemps l’accessibilité numérique, ne semble plus considérer l’accessibilité comme importante à l’époque des médias sociaux, après avoir renoncé à ses règles autrefois sacro-saintes qui exigeaient que les publications officielles du gouvernement soient accessibles aux personnes aux ressources physiques différentes. capacités. Alors que les législateurs se tournent de plus en plus vers des plateformes de réseaux sociaux inaccessibles pour annoncer leurs politiques et communiquer avec leurs électeurs, ceux dont les capacités sont différentes sont de plus en plus coupés du processus démocratique.

En l'absence de leadership gouvernemental, on ignore ce qui pourrait inverser la tendance en matière d'accessibilité.

Une possibilité est que le besoin infini des entreprises d’imagerie annotée à la main les amène à pousser leurs utilisateurs à fournir du texte ALT pour leurs images afin de former leurs algorithmes.

Au final, à mesure que le Web devient visuel, il devient également plus discriminatoire.

">

La brève panne d'image de Facebook plus tôt cette semaine a montré au grand public à quel point il est vraiment accessible dans notre Web social moderne, le premier visuel. Alors que la plupart des principales plates-formes de médias sociaux offrent aux utilisateurs une certaine capacité de fournir un texte descriptif ALT pour leurs images et vidéos, peu d'utilisateurs prennent le temps de rédiger des descriptions textuelles accessibles de leurs images. Au lieu de cela, la plupart des textes ALT sur les plateformes sociales sont générés automatiquement par des algorithmes d'apprentissage approfondis qui génèrent un ensemble de balises de métadonnées délimitées par des virgules des principaux sujets ou activités décrits dans l'image. La qualité de ces étiquettes est ridicule aujourd'hui, mais même le gouvernement américain, qui applique depuis longtemps des normes d'accessibilité strictes pour le contenu Web gouvernemental, rend ce contenu social accessible. Bien que les gouvernements et le monde de la technologie soient fortement influencés par l'IA, ils s'en soucient peu. Ceux qui ont des capacités différentes seront-ils simplement laissés pour compte par le futur Web?

Pendant un bref instant cette semaine, les utilisateurs de Facebook et Instagram ont vu des boîtes vides où leurs images auraient dû apparaître, ainsi qu'un texte ALT descriptif et horriblement mauvais, illustrant la manière dont les algorithmes de Facebook ont ​​été conçus pour cette image.

Malheureusement, c'est le monde que vivent quotidiennement les personnes aux capacités visuelles différentes.

Pour ceux qui accèdent au Web par l’intermédiaire de lecteurs d’écran à texte seulement, ils dépendent entièrement de la description textuelle des images fournie par leurs balises ALT.

Malheureusement, peu d'utilisateurs de Facebook et d'Instagram ont eu la peine de fournir de telles descriptions pour leurs images. Bien que les deux sites permettent aux utilisateurs de saisir une description textuelle de chaque image à lire par des lecteurs d'écran pour ceux qui ont des capacités visuelles différentes, très peu d'utilisateurs le font. Même les décideurs politiques qui ont misé toute leur carrière et ont comblé leurs divergences sont trop occupés à chercher la gloire virale pour se donner la peine de créer leurs propres médias sociaux pour leurs électeurs utilisant des lecteurs d'écran. En effet, le gouvernement ne leur demande pas réellement de le faire.

Aujourd'hui, la majorité du texte ALT sur les médias sociaux est automatiquement générée par des algorithmes d'apprentissage en profondeur qui génèrent une chaîne de balises de métadonnées délimitées par des virgules décrivant les objets et activités courants décrits dans l'image. Seules les entités pour lesquelles un modèle a été préalablement formé peuvent être reconnues.

La précision est comiquement mauvaise. Contrairement aux systèmes de reconnaissance d'images de pointe utilisés dans le monde commercial, les modèles actuellement déployés par les sites de médias sociaux semblent être optimisés pour la vitesse plutôt que pour l'expressivité et la précision.

Toutefois, pour la très grande majorité des utilisateurs Web, ce taux d'erreur est totalement invisible. L’utilisateur moyen des médias sociaux ne voit jamais le texte ALT du Web, mais se plonge dans le beau monde vibrant de l’imagerie Web haute résolution moderne.

La brève panne d'image qui a eu lieu plus tôt cette semaine a entraîné une couverture médiatique considérable, les journalistes et les experts ayant constaté pour la première fois à quel point ces balises ALT étaient mauvaises.

Malheureusement, la majeure partie de cette couverture s’est tournée vers les résultats, en plaisantant au sujet des tags particulièrement mauvais et en soulignant à quel point ils sont reconnaissants du fait que peu d’utilisateurs doivent se fier à ces tags ALT.

Malheureusement, pour ceux qui s’appuient sur des lecteurs d’écran, ces balises sont leur façon de voir les images du Web.

Pour eux, la qualité abominable des tags d’aujourd’hui n’est pas une blague. Cela limite profondément leur capacité à utiliser nos plateformes sociales de plus en plus visuelles.

En résumé, malgré l’importance accordée par la société aux préjugés liés à l’IA, il n’a guère prêté attention au préjugé lié à l’accessibilité. Contrairement aux effets de biais algorithmiques, qui sont ressentis par tous, le biais d'accessibilité est invisible pour l'internaute moyen et le correctif le plus simple, obliger les utilisateurs à saisir des descriptions des images qu'ils publient, créerait une friction d'interface que peu d'utilisateurs semblent vouloir accepter.

Alors que le Web devient de plus en plus visuel, le Web laisse de plus en plus de place dans l’ensemble de la société, les isolant du monde numérique.

Même le gouvernement américain, qui défend depuis longtemps l’accessibilité numérique, ne semble plus considérer l’accessibilité comme importante à l’époque des médias sociaux, après avoir renoncé à ses règles autrefois sacro-saintes qui exigeaient que les publications officielles du gouvernement soient accessibles aux personnes aux ressources physiques différentes. capacités. Alors que les législateurs se tournent de plus en plus vers des plateformes de réseaux sociaux inaccessibles pour annoncer leurs politiques et communiquer avec leurs électeurs, ceux dont les capacités sont différentes sont de plus en plus coupés du processus démocratique.

En l'absence de leadership gouvernemental, on ignore ce qui pourrait inverser la tendance en matière d'accessibilité.

Une possibilité est que le besoin infini des entreprises d’imagerie annotée à la main les amène à pousser leurs utilisateurs à fournir du texte ALT pour leurs images afin de former leurs algorithmes.

Au final, à mesure que le Web devient visuel, il devient également plus discriminatoire.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *