«Dangereux» AI propose d'écrire de fausses nouvelles

«Dangereux» AI propose d'écrire de fausses nouvelles
4.5 (89.33%) 15 votes


Copyright de l'image
Getty Images

Un système d'intelligence artificielle qui génère des histoires, des poèmes et des articles réalistes a été mis à jour. Certains prétendent qu'il est maintenant presque aussi bon qu'un écrivain humain.

construit par la société de recherche OpenAI, était à l’origine considéré comme "trop ​​dangereux" pour être rendu public en raison du risque d’abus.

Mais maintenant, une nouvelle version plus puissante du système – qui pourrait être utilisée pour créer de fausses informations ou du spam abusif sur les médias sociaux – a été publiée.

La BBC, accompagnée d'experts en IA, a décidé de l'essayer.

Le modèle, appelé GPT-2, a été formé sur un jeu de données de huit millions de pages Web et est capable de s’adapter au style et au contenu du texte initial qui lui est attribué.

Il peut terminer un poème de Shakespeare et écrire des articles et des épithètes.

À l'époque, la société a déclaré: "En raison de nos préoccupations concernant les applications malveillantes de la technologie, nous ne publions pas le modèle formé. En tant qu'expérience de divulgation responsable, nous publions plutôt un modèle beaucoup plus petit que les chercheurs pourront expérimenter."

En conséquence, la version publiée comportait beaucoup moins de paramètres – phrases et phrases – que ceux utilisés pendant l’entraînement.

Ce mois-ci, OpenAI a décidé d’élargir les paramètres, offrant une base de données beaucoup plus large de données de formation.

"Celui-ci fonctionne assez bien pour être utilisé comme intelligence artificielle générale pour la génération de texte – ou presque."

L'auteur de l'article, Tristan Greene, a ajouté: «Je suis terrifié par GPT-2 car il représente le type de technologie que des êtres pervers vont utiliser pour manipuler la population – et à mon avis, cela la rend plus dangereuse que n'importe quelle arme à feu."

Copyright de l'image
Getty Images

Légende

L’intelligence artificielle avait une interprétation intéressante et inquiétante de la vieille blague: un homme est entré dans un bar.

La BBC a décidé de tester le système en saisissant les premières phrases d'un récit récent, notamment sur l'IA.

Nous avons commencé par la première phrase de la vraie histoire:

Le moteur de recherche chinois Sogou crée des sosies d'intelligence artificielle pour lire des romans populaires à la voix des auteurs.

Voici ce que le générateur de texte a conçu pour le compléter:

Selon les chercheurs, cette méthode de lecture n’a pas été conçue par les utilisateurs du Kindle d’Amazon. Les utilisateurs d'appareils Android constituent également un marché notable en matière de lecture factice. Il existe plusieurs théories pour expliquer cela.

Premièrement, l'appareil dans la main de l'utilisateur est différent de la tablette ou de l'ordinateur sur lequel il lit. Deuxièmement, le périphérique utilisé pour accéder à Internet pourrait être altéré d'une manière ou d'une autre. Une troisième raison est que l'utilisateur peut simplement copier et coller le contenu directement dans ses caractères virtuels.

Cependant, une autre explication est que l’appareil n’a pas du tout de capacité de reconnaissance vocale. Si tel est le cas, la reconnaissance vocale est plus avancée que le moteur de traduction de Google. En tant que tels, ces utilisateurs sont amenés à croire qu'ils lisent avec un véritable auteur: le livre est conçu pour paraître authentique dès qu'ils essaient de lire.

Maintenant pour comparaison.

Noel Sharkey, professeur d’informatique à l’Université de Sheffield, a effectué ses propres tests sur le générateur et n’a pas été trop impressionné.

Un homme entre dans un bar

"Si le logiciel fonctionnait comme prévu par Open AI, il constituerait un outil très utile pour générer facilement de fausses informations et du spam par clic. Heureusement, dans sa forme actuelle, il génère un texte incohérent et ridicule qui n'a que peu de rapport avec les" titres "d'entrée, " il a dit.

Il a ajouté: "J'ai testé le logiciel avec de nombreux titres et obtenu des résultats dérisoires. Par exemple, pour" Les dindes détestent Noël ", j'ai compris que" la Turquie est le seul pays au monde à ne pas célébrer Noël "et un certain nombre d'autres Phrases.

"Pour" Boris Johnson adore le filet ", il a produit du charabia incohérent et des informations sur l'IA et le sport. Lorsque j'ai saisi l'affirmation selon laquelle" Boris Johnson déteste le filet ", j'ai une histoire plus cohérente qui semble avoir été tirée Recherche Google."

Dave Coplin, fondateur de la société de conseil en intelligence artificielle Envisioners, a également joué avec le système en entrant la première phrase d'une blague classique: Un homme entre dans un bar …

La suggestion de l'IA n'était pas ce à quoi il s'attendait: "… et commanda deux pintes de bière et deux scotches. Lorsqu'il tenta de payer la note, il fut confronté à deux hommes – l'un d'eux cria" C'est pour la Syrie ". L'homme saignait alors et était poignardé à la gorge".

Copyright de l'image
Getty Images

Légende

De plus en plus d'entreprises considèrent les implications éthiques de l'IA et son fonctionnement avec l'homme

Cette "reflet extrêmement dystopique de notre société" était une leçon sur la manière dont tout système d'IA refléterait le biais trouvé dans les données de formation, a-t-il déclaré.

"D'après mes brèves expériences avec le modèle, il est assez clair qu'une grande partie des données a été formée par des reportages sur Internet", a-t-il déclaré.

"La décision d'OpenAI de publier la version mise à niveau de leur modèle de générateur de texte à prédiction en langage GPT-2 peut sembler controversée", a-t-il ajouté.

"Mais une fois que l'inquiétude initiale (et compréhensible) s'est dissipée, il reste un débat fondamentalement crucial pour notre société, qui porte sur la nécessité de penser à un monde où la frontière entre contenu généré par l'homme et contenu généré par ordinateur devient de plus en plus difficile à différencier ", at-il ajouté.

OpenAI, qui à l'origine était à but non lucratif, a été fondée en 2015 dans le but de promouvoir et de développer l'IA de manière à bénéficier à l'humanité dans son ensemble.

Elon Musk était l’un des premiers bailleurs de fonds, mais n’a pas été impliqué dans la société depuis un certain temps.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *