Dans la lutte contre les contrefaçons profondes, les souris peuvent être de grands auditeurs

Dans la lutte contre les contrefaçons profondes, les souris peuvent être de grands auditeurs
4.7 (93.33%) 39 votes


Copyright de l'image
Getty Images

Légende

Les chercheurs espèrent que les souris pourront entendre les irrégularités que l'oreille humaine pourrait manquer

Il peut y avoir une nouvelle arme dans la guerre contre la désinformation: les souris.

Dans le cadre de la bataille en cours contre le «deep fakes» – vidéos et audio mettant en scène des personnages célèbres, créés à l'aide de l'apprentissage automatique, conçus pour donner une apparence authentique – les chercheurs se tournent vers de nouvelles méthodes pour tenter de devancer les technologies de plus en plus sophistiquées.

Et c’est à l’Institute of Neuroscience de l’Université de l’Oregon où l’une des idées les plus farfelues est en train d’être testée. Une équipe de recherche travaille à l’entraînement des souris à la compréhension des irrégularités de la parole, tâche que les animaux peuvent accomplir avec une précision remarquable.

On espère que la recherche pourra éventuellement être utilisée pour aider des sites tels que Facebook et YouTube à détecter des contrefaçons profondes avant qu’ils ne puissent se propager en ligne. Toutefois, pour être clair, les entreprises n’auront pas besoin de leurs propres souris.

«Bien que je trouve l’idée d’une pièce remplie de souris en temps réel permettant de détecter de la fausse qualité audio sur YouTube est vraiment adorable», déclare Jonathan Saunders, l’un des chercheurs du projet, «je ne pense pas que ce soit pratique pour des raisons évidentes.

"L'objectif est de tirer les leçons de la façon dont ils le font, puis de les mettre en œuvre dans l'ordinateur."

Catégorisation des souris

M. Saunders et son équipe ont appris à leurs souris à comprendre un petit ensemble de phonèmes, les sons que nous émettons qui distinguent un mot d’un autre.

«Nous avons appris à des souris à nous dire la différence entre un son« buh »et un son« guh »dans différents contextes, entourées de voyelles différentes, afin qu'elles sachent« boe »,« bih »et« bah »- tout ces différentes choses de fantaisie que nous prenons pour acquis.

"Et parce qu'ils peuvent apprendre ce problème très complexe de catégorisation de différents sons de la parole, nous pensons qu'il devrait être possible de former les souris à la détection des faux et réels discours."

Les souris recevaient une récompense chaque fois qu'elles identifiaient correctement les sons de la parole, ce qui représentait jusqu'à 80% du temps.

Ce n'est pas parfait, mais couplé aux méthodes existantes de détection de faux produits, il pourrait constituer un apport extrêmement précieux.

Ne peut pas compter sur des erreurs

La plupart des contrefaçons profondes actuellement en circulation ne sont évidemment pas réelles et sont généralement utilisées comme un moyen de se moquer d'un sujet plutôt que de les imiter. Exemple: un faux faux de «Mark Zuckerberg» parlant ouvertement du vol de données utilisateur.

Mais cela ne veut pas dire que l’usurpation d’identité convaincante ne sera pas un problème dans un avenir pas si lointain – c’est pourquoi le sujet de la conversation a été un sujet de conversation important à Black Hat et Def Con de cette année, les deux conférences sur le piratage qui se tiennent à Las Vegas chaque année.

«Je dirais qu'une bonne estimation pour la formation d'un faux profond va de 100 à 500 dollars, en termes de coûts de l'informatique en nuage», a déclaré Matthew Price, de la société de cybersécurité Zerofox basée à Baltimore.

Il est ici pour discuter des dernières méthodes de création de faux, mais également pour les détecter de manière avancée. Dans son discours, M. Price a expliqué en quoi l’utilisation d’algorithmes pour détecter les mouvements de tête inhabituels, ou un éclairage incohérent, était une méthode efficace. Un indice trouvé dans les contrefaçons profondes mal faites est que les personnes qui y sont présentes ne clignotent souvent pas.

Mais ces techniques reposent sur les créateurs de fausses erreurs profondes ou sur les faiblesses des technologies actuellement disponibles. C’est un luxe qui ne durera pas éternellement.

"Il est peu probable que, lors des élections de 2020, de nombreuses fausses contrefaçons soient divulguées", a déclaré M. Price à la BBC.

"Mais je pense que cette technologie continue de s'améliorer, ce qui nous rend plus difficile la détection des faux, il est donc plus probable que nous les verrions utilisés dans une opération d'influence spécifiquement pour les élections."

Cette préoccupation a été exprimée par des personnalités politiques américaines réputées qui considèrent les faux contrefaçons comme une nouvelle escalade dramatique dans les efforts de désinformation ciblant les électeurs américains.

"Les ennemis de l'Amérique utilisent déjà de fausses images pour semer le mécontentement et nous diviser", a déclaré le sénateur républicain Marco Rubio,.

«Imaginez maintenant le pouvoir d’une vidéo qui semble montrer des bulletins de vote volés, des propos salaces d’un dirigeant politique ou de civils innocents tués dans un conflit à l’étranger».

'Faux pas cher'

Mais d’autres pensent que la fausse menace est complètement exagérée. Bruce Schneier, spécialiste de la cybersécurité, de la Harvard Kennedy School, a déclaré que les efforts déployés pour détecter des contrefaçons profondes manquaient complètement à la vérité.

«Ce qui est partagé, c'est faux, ce n'est même pas subtil. Et pourtant, c'est partagé, non?

«Le problème n'est pas la qualité du faux. Le problème est que nous ne faisons pas confiance aux sources d'informations légitimes, et parce que nous partageons des éléments pour l'identité sociale. "

Copyright de l'image
Getty Images

Légende

La vidéo de la présidente de la Chambre des représentants, Nancy Pelosi, a été ralentie de 25%

Il mentionne une récente vidéo virale impliquant la députée démocrate Nancy Pelosi, dans laquelle le son avait été modifié pour tenter de la rendre ivre. Le clip a été rapidement démystifié, mais peu importait: il a été visionné plus d’un million de fois.

"Ce n’était pas un faux profond, c’était un faux pas cher", a souligné M. Schneier.

"Tant que les gens regardent la vidéo non pas en termes de" Est-ce que c'est vrai? "Mais" Est-ce que cela confirme ma vision du monde? ", Alors ils vont la partager … parce que c'est ce qu'ils sont."

En fait, les experts partagent l’opinion selon laquelle la discussion sur les contrefaçons profondes risque d’être plus dommageable que les contrefaçons elles-mêmes.

Certains politiciens peuvent se servir de l'existence et des craintes concernant la technologie pour convaincre les électeurs que quelque chose de très réel n'est qu'un faux.

_____

Suivez Dave Lee sur Twitter

Avez-vous plus d'informations à ce sujet ou sur toute autre histoire de technologie? Vous pouvez joindre Dave directement et en toute sécurité via l'application de messagerie cryptée. Signalez le: +1 (628) 400-7370

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *