Intelligence artificielle : définition, actualités & perspectives
4.8 (96.88%) 32 votes

L’intelligence artificielle (IA) permet aux machines d’apprendre de l’expérience, de s’adapter aux nouveaux intrants et d’effectuer des tâches semblables à celles de l’homme. La plupart des exemples d’IA dont vous entendez parler aujourd’hui – de l’ordinateur de jeu d’échecs à l’auto-conduite – dépendent fortement de l’apprentissage approfondi et du traitement du langage naturel. En utilisant ces technologies, les ordinateurs peuvent être formés pour accomplir des tâches spécifiques en traitant de grandes quantités de données et en reconnaissant les modèles dans les données.

Définition – Que signifie l’intelligence artificielle (IA) ?

L’intelligence artificielle (IA) est un domaine de l’informatique qui met l’accent sur la création de machines intelligentes qui fonctionnent et réagissent comme les humains. Certaines des activités pour lesquelles les ordinateurs avec intelligence artificielle sont conçus incluent :

  • Reconnaissance de la parole
  • Apprendre
  • Planification
  • Résolution de problèmes

Comprendre l’intelligence artificielle (IA)

L’intelligence artificielle est une branche de l’informatique qui vise à créer des machines intelligentes. Il est devenu un élément essentiel de l’industrie technologique.

La recherche associée à l’intelligence artificielle est hautement technique et spécialisée. Les problèmes centraux de l’intelligence artificielle incluent la programmation d’ordinateurs pour certains traits tels que :

  • Connaissances
  • Raisonnement
  • Résolution de problèmes
  • Perception
  • Apprendre
  • Planification
  • Capacité de manipuler et de déplacer des objets

L’ingénierie des connaissances est au cœur de la recherche sur l’IA. Les machines ne peuvent souvent agir et réagir comme les humains que si elles disposent d’informations abondantes sur le monde. L’intelligence artificielle doit avoir accès aux objets, catégories, propriétés et relations entre eux pour mettre en œuvre l’ingénierie de la connaissance. L’initiation au bon sens, au raisonnement et au pouvoir de résolution de problèmes dans les machines est une tâche difficile et fastidieuse.

L’apprentissage machine est également au cœur de l’IA. L’apprentissage sans aucune forme de supervision exige la capacité d’identifier des modèles dans les flux d’intrants, alors que l’apprentissage avec une supervision adéquate implique une classification et des régressions numériques. La classification détermine la catégorie à laquelle appartient un objet et la régression traite de l’obtention d’un ensemble d’exemples d’entrées ou de sorties numériques, découvrant ainsi des fonctions permettant la génération de sorties appropriées à partir des entrées respectives. L’analyse mathématique des algorithmes d’apprentissage machine et de leurs performances est une branche bien définie de l’informatique théorique, souvent appelée théorie de l’apprentissage computationnel.

La perception machine traite de la capacité d’utiliser des entrées sensorielles pour déduire les différents aspects du monde, tandis que la vision par ordinateur est le pouvoir d’analyser les entrées visuelles avec quelques sous-problèmes tels que la reconnaissance faciale, la reconnaissance d’objets et de gestes.

La robotique est également un domaine majeur lié à l’IA. Les robots ont besoin d’intelligence pour gérer des tâches telles que la manipulation d’objets et la navigation, ainsi que des sous-problèmes de localisation, de planification de mouvement et de cartographie.

Pourquoi l’intelligence artificielle est-elle une innovation technologique majeur ?

  1. L’intelligence artificielle automatise l’apprentissage et la découverte répétitifs grâce aux données. Mais l’intelligence artificielle est différente de l’automatisation matérielle et robotique. Au lieu d’automatiser les tâches manuelles, l’IA exécute des tâches informatisées fréquentes et à volume élevé de façon fiable et sans fatigue. Pour ce type d’automatisation, l’enquête humaine reste indispensable pour mettre en place le système et poser les bonnes questions.
  2. L’intelligence artificielle ajoute de l’intelligence aux produits existants. Dans la plupart des cas, l’IA ne sera pas vendue en tant que demande individuelle. Au contraire, les produits que vous utilisez déjà seront améliorés grâce aux capacités de l’intelligence artificielle, tout comme Siri a été ajouté à une nouvelle génération de produits Apple. L’automatisation, les plates-formes conversationnelles, les robots et les machines intelligentes peuvent être combinés avec de grandes quantités de données pour améliorer de nombreuses technologies à la maison et au travail, du renseignement de sécurité à l’analyse des investissements.
  3. L’IA s’adapte grâce à des algorithmes d’apprentissage progressif pour laisser les données faire la programmation. L’IA trouve une structure et des régularités dans les données de sorte que l’algorithme acquiert une compétence : L’algorithme devient un classificateur ou un prédicateur. Ainsi, tout comme l’algorithme peut apprendre à jouer aux échecs, il peut apprendre à lui-même quel produit recommander en ligne. Et les modèles s’adaptent lorsqu’on leur donne de nouvelles données. La propagation par le dos est une technique d’IA qui permet au modèle de s’ajuster, par la formation et l’ajout de données, lorsque la première réponse n’est pas tout à fait correcte.
  4. L’intelligence artificielle analyse des données plus nombreuses et plus profondes à l’aide de réseaux neuronaux qui comportent de nombreuses couches cachées. Il y a quelques années, il était presque impossible de construire un système de détection des fraudes avec cinq couches cachées. Tout cela a changé avec une incroyable puissance d’ordinateur et de grandes données. Vous avez besoin de beaucoup de données pour former des modèles d’apprentissage en profondeur parce qu’ils apprennent directement à partir des données. Plus vous pouvez les nourrir de données, plus elles deviennent précises.
  5. L’IA atteint une précision incroyable grâce aux réseaux neuronaux profonds – ce qui était auparavant impossible. Par exemple, vos interactions avec Alexa, Google Search et Google Photos sont toutes basées sur un apprentissage approfondi – et elles deviennent de plus en plus précises à mesure que nous les utilisons. Dans le domaine médical, les techniques d’IA issues de l’apprentissage profond, de la classification d’images et de la reconnaissance d’objets peuvent maintenant être utilisées pour trouver le cancer sur les IRM avec la même précision que les radiologues hautement qualifiés.
  6. L’IA tire le meilleur parti des données. Lorsque les algorithmes sont auto-apprentissage, les données elles-mêmes peuvent devenir propriété intellectuelle. Les réponses se trouvent dans les données ; il suffit d’appliquer l’IA pour les faire sortir. Comme le rôle des données est aujourd’hui plus important que jamais, il peut créer un avantage concurrentiel. Si vous avez les meilleures données dans une industrie concurrentielle, même si tout le monde applique des techniques similaires, les meilleures données seront gagnantes.

Actualités et applications de l’intelligence artificielle concrètes en usage aujourd’hui

Au-delà de notre énigme de l’informatique quantique, les systèmes d’I.A. d’aujourd’hui ne sont que des logiciels d’apprentissage machine avancés avec des algorithmes comportementaux étendus qui s’adaptent à nos goûts et à nos aversions. Bien qu’extrêmement utiles, ces machines ne deviennent pas plus intelligentes au sens existentiel, mais elles améliorent leurs compétences et leur utilité à partir d’un vaste ensemble de données. Ce sont là certains des exemples les plus populaires de l’intelligence artificielle qui est utilisée aujourd’hui.

Siri

Tout le monde connaît l’assistant personnel d’Apple, Siri. C’est l’ordinateur à commande vocale avec lequel nous interagissons quotidiennement. Elle nous aide à trouver des informations, nous donne des directions, ajoute des événements à nos calendriers, nous aide à envoyer des messages et ainsi de suite. Siri est une assistante personnelle numérique pseudo-intelligente. Elle utilise la technologie de l’apprentissage machine pour devenir plus intelligente et mieux en mesure de prédire et de comprendre nos questions et demandes en langage naturel.

Alexa

L’ascension d’Alexa pour devenir la plaque tournante de la maison intelligente a été quelque peu fulgurante. Quand Amazon a introduit Alexa pour la première fois, il a pris une grande partie du monde par la tempête. Cependant, son utilité et son incroyable capacité à déchiffrer la parole de n’importe où dans la pièce en a fait un produit révolutionnaire qui peut nous aider à parcourir le Web pour trouver de l’information, magasiner, programmer des rendez-vous, régler des alarmes et un million d’autres choses, mais aussi aider à alimenter nos maisons intelligentes et être un conduit pour ceux qui pourraient avoir une mobilité limitée.

Tesla

Si vous ne possédez pas de Tesla, vous n’avez aucune idée de ce que vous manquez. C’est probablement l’une des meilleures voitures jamais fabriquées. Non seulement pour le fait qu’il a reçu tant d’éloges, mais aussi en raison de ses capacités prédictives, de ses caractéristiques d’auto-conduite et de sa « coolness » technologique. Tous ceux qui s’intéressent à la technologie et aux voitures doivent posséder un Tesla, et ces véhicules sont de plus en plus intelligents grâce à leurs mises à jour en direct.

Cogito

Cofondée à l’origine par le PDG, Joshua Feast et le Dr Sandy Pentland, Cogito est probablement l’un des exemples les plus puissants d’adaptation comportementale pour améliorer l’intelligence émotionnelle des représentants du service à la clientèle qui existe aujourd’hui sur le marché. La société est une fusion de l’apprentissage machine et de la science du comportement pour améliorer l’interaction client pour les professionnels du téléphone. Cela s’applique à des millions et des millions d’appels vocaux qui se produisent quotidiennement.

Boxever

Boxever, co-fondée par le PDG, Dave O’Flanagan, est une entreprise qui s’appuie fortement sur l’apprentissage machine pour améliorer l’expérience du client dans l’industrie du voyage et offrir des  » micro-moments  » ou des expériences qui font le bonheur des clients en cours de route. C’est par l’apprentissage machine et l’utilisation de l’I.A. que l’entreprise a dominé le terrain de jeu, aidant ses clients à trouver de nouvelles façons d’engager leurs clients dans leurs voyages.

John Paul

John Paul, une entreprise de conciergerie de voyage de luxe très appréciée et dirigée par son astucieux fondateur, David Amsellem, est un autre exemple puissant d’I.A. dans les algorithmes prédictifs pour les interactions entre clients existants, capable de comprendre et de connaître leurs désirs et leurs besoins à un niveau aigu. La société assure les services de conciergerie pour des millions de clients par l’intermédiaire des plus grandes entreprises mondiales telles que VISA, Orange et Air France, et a récemment été acquise par Accor Hotels.

Amazon

L’I.A. transactionnelle d’Amazon est quelque chose qui existe depuis un certain temps, ce qui lui permet de faire des sommes astronomiques d’argent en ligne. Avec ses algorithmes de plus en plus affinés d’année en année, l’entreprise est devenue très intelligente dans la prédiction de ce que nous voulons acheter en fonction de notre comportement en ligne. Bien qu’Amazon envisage de nous expédier des produits avant même que nous sachions que nous en avons besoin, ce n’est pas encore tout à fait le cas. Mais c’est certainement sur ses horizons.

Netflix

Netflix fournit une technologie prédictive très précise basée sur les réactions des clients aux films. Il analyse des milliards d’enregistrements pour vous suggérer des films qui pourraient vous plaire en fonction de vos réactions antérieures et de vos choix de films. Cette technologie devient de plus en plus intelligente au fur et à mesure que le jeu de données s’enrichit. Cependant, le seul inconvénient de la technologie est que la plupart des petits films passent inaperçus alors que les grands films grandissent et prennent de l’ampleur sur la plate-forme.

Pandora

L’I.A.I. de Pandora est probablement l’une des techniques les plus révolutionnaires qui existent aujourd’hui. Ils l’appellent leur ADN musical. Basé sur 400 caractéristiques musicales, chaque chanson est d’abord analysée manuellement par une équipe de musiciens professionnels en fonction de ces critères, et le système a un dossier incroyable pour recommander des chansons qui, autrement, passeraient inaperçues mais que les gens aiment par nature.

Nest

La plupart des gens connaissent Nest, le thermostat d’apprentissage qui a été acquis par Google en janvier 2014 pour 3,2 milliards de dollars. Le thermostat d’apprentissage Nest, qui, soit dit en passant, peut maintenant être commandé par Alexa, utilise des algorithmes comportementaux pour apprendre de façon prévisible de vos besoins de chauffage et de climatisation, anticipant et ajustant ainsi la température de votre maison ou de votre bureau en fonction de vos besoins personnels, et inclut maintenant aussi une suite d’autres produits tels que les caméras Nest.

Intelligence artificielle : actualités et perspectives

Pourquoi la sécurité et les règles sont-elles importantes en matière de recherche sur l’IA ?

À court terme, l’objectif de maintenir l’impact de l’IA sur la société motive la recherche dans de nombreux domaines, de l’économie et du droit à des sujets techniques tels que la vérification, la validité, la sécurité et le contrôle. Alors qu’il peut s’agir d’une nuisance mineure si votre ordinateur portable tombe en panne ou est piraté, il devient d’autant plus important qu’un système d’IA fait ce que vous voulez qu’il fasse s’il contrôle votre voiture, votre avion, votre stimulateur cardiaque, votre système de commerce automatisé ou votre réseau électrique. Un autre défi à court terme est d’empêcher une course aux armements dévastatrice dans le domaine des armes autonomes létales.

À long terme, une question importante est de savoir ce qui se passera si la recherche d’une IA forte réussit et qu’un système d’IA devient meilleur que les humains dans toutes les tâches cognitives. Comme l’a souligné I.J. Good en 1965, la conception de systèmes d’IA plus intelligents est en soi une tâche cognitive. Un tel système pourrait potentiellement subir une auto-amélioration récursive, déclenchant une explosion de l’intelligence, laissant l’intellect humain loin derrière. En inventant de nouvelles technologies révolutionnaires, une telle superintelligence pourrait nous aider à éradiquer la guerre, la maladie et la pauvreté, de sorte que la création d’une IA forte pourrait être l’événement le plus important de l’histoire de l’humanité. Certains experts ont toutefois exprimé la crainte que ce soit aussi le dernier, à moins que nous apprenions à aligner les objectifs de l’IA avec les nôtres avant qu’elle ne devienne superintelligente.

Certains se demandent si l’IA forte sera jamais atteinte, et d’autres insistent sur le fait que la création de l’IA superintelligente est garantie bénéfique. Chez FLI, nous reconnaissons ces deux possibilités, mais aussi la possibilité qu’un système d’intelligence artificielle puisse causer intentionnellement ou non intentionnellement de grands dommages. Nous croyons que la recherche d’aujourd’hui nous aidera à mieux nous préparer et à prévenir de telles conséquences potentiellement négatives à l’avenir, ce qui nous permettra de profiter des avantages de l’IA tout en évitant les pièges.

Les risques de l’intelligence artificielle

La plupart des chercheurs s’entendent pour dire qu’une IA superintelligente est peu susceptible de manifester des émotions humaines comme l’amour ou la haine, et qu’il n’y a aucune raison de s’attendre à ce que l’IA devienne intentionnellement bienveillante ou malveillante. Au lieu de cela, lorsqu’ils examinent comment l’IA pourrait devenir un risque, les experts pensent que deux scénarios sont les plus probables :

L’IA est programmée pour faire quelque chose de dévastateur : Les armes autonomes sont des systèmes d’intelligence artificielle programmés pour tuer. Entre les mains de la mauvaise personne, ces armes pourraient facilement causer des pertes massives. De plus, une course aux armements de l’IA pourrait, par inadvertance, mener à une guerre de l’IA qui entraînerait également des pertes massives. Pour éviter d’être contrecarré par l’ennemi, ces armes seraient conçues pour être extrêmement difficiles à  » éteindre « , de sorte que les humains pourraient vraisemblablement perdre le contrôle d’une telle situation. Ce risque est présent même avec une intelligence artificielle étroite, mais il augmente à mesure que les niveaux d’intelligence artificielle et d’autonomie augmentent.

L’IA est programmée pour faire quelque chose de bénéfique, mais elle développe une méthode destructrice pour atteindre son objectif : cela peut se produire lorsque nous ne parvenons pas à aligner complètement les objectifs de l’IA avec les nôtres, ce qui est étonnamment difficile. Si vous demandez à une voiture intelligente obéissante de vous emmener à l’aéroport le plus vite possible, elle pourrait vous y conduire poursuivi par hélicoptères et couvert de vomi, ne faisant pas ce que vous vouliez, mais littéralement ce que vous demandiez. Si un système superintelligent est chargé d’un ambitieux projet de géo-ingénierie, il pourrait faire des ravages dans notre écosystème en tant qu’effet secondaire, et considérer les tentatives humaines pour l’arrêter comme une menace à affronter.

Comme ces exemples l’illustrent, la préoccupation au sujet de l’IA avancée n’est pas la malveillance, mais la compétence. Une IA super-intelligente sera extrêmement efficace pour atteindre ses objectifs, et si ces objectifs ne sont pas alignés avec les nôtres, nous avons un problème. Vous n’êtes probablement pas un méchant chasseur de fourmis qui marche sur les fourmis par malice, mais si vous êtes responsable d’un projet d’énergie verte hydroélectrique et qu’il y a une fourmilière dans la région pour être inondée, tant pis pour les fourmis. L’un des principaux objectifs de la recherche sur la sécurité de l’IA est de ne jamais placer l’humanité dans la position de ces fourmis.

Comprendre l’intérêt récent concerant la sécurité en matière d’intelligence artificielle

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates et de nombreux autres grands noms de la science et de la technologie ont récemment exprimé leur inquiétude dans les médias et dans des lettres ouvertes au sujet des risques posés par l’IA, auxquels se sont joints de nombreux chercheurs de pointe en IA. Pourquoi le sujet fait-il soudainement la une des journaux ?

L’idée que la quête d’une IA forte réussirait en fin de compte a longtemps été considérée comme de la science-fiction, à des siècles ou plus loin. Cependant, grâce à des percées récentes, de nombreux jalons de l’intelligence artificielle, que les experts considéraient il y a à peine cinq ans, ont été atteints, ce qui fait que de nombreux experts prennent au sérieux la possibilité d’une superintelligence de notre vivant. Alors que certains experts pensent encore que l’IA à l’échelle humaine est à des siècles de distance, la plupart des recherches sur l’IA à la Conférence de Porto Rico de 2015 ont deviné que cela se produirait avant 2060. Étant donné qu’il faudra peut-être des décennies pour mener à terme les recherches requises en matière de sécurité, il est prudent de commencer dès maintenant.

Parce que l’IA a le potentiel de devenir plus intelligente que n’importe quel humain, nous n’avons aucun moyen sûr de prédire comment elle se comportera. Nous ne pouvons pas utiliser les développements technologiques du passé comme base parce que nous n’avons jamais créé quoi que ce soit qui ait la capacité de nous surpasser, consciemment ou involontairement. Le meilleur exemple de ce à quoi nous pourrions faire face pourrait être notre propre évolution. Les gens contrôlent maintenant la planète, non pas parce que nous sommes les plus forts, les plus rapides ou les plus grands, mais parce que nous sommes les plus intelligents. Si nous ne sommes plus les plus intelligents, sommes-nous assurés de garder le contrôle ?

La position de FLI est que notre civilisation prospérera tant que nous gagnerons la course entre la puissance croissante de la technologie et la sagesse avec laquelle nous la gérons. Dans le cas de la technologie de l’IA, la position de FLI est que la meilleure façon de gagner cette course n’est pas d’entraver la première, mais d’accélérer la seconde, en soutenant la recherche sur la sécurité de l’IA.

Les principaux mythes sur l’intelligence artificielle

Une conversation captivante a lieu sur l’avenir de l’intelligence artificielle et ce qu’elle signifiera ou devrait signifier pour l’humanité. Il y a des controverses fascinantes où les plus grands experts du monde ne sont pas d’accord, comme par exemple : L’impact futur de l’IA sur le marché du travail ; si/quand l’IA à l’échelle humaine sera développée ; si cela mènera à une explosion du renseignement ; et si c’est quelque chose dont nous devrions nous réjouir ou craindre. Mais il y a aussi de nombreux exemples de pseudo-controverses ennuyeuses causées par des gens qui se comprennent mal et se parlent les uns les autres. Pour nous aider à nous concentrer sur les controverses intéressantes et les questions ouvertes – et non sur les malentendus – éclaircissons certains des mythes les plus courants.

Le premier mythe concerne la chronologie : combien de temps faudra-t-il pour que les machines supplantent largement l’intelligence humaine ? Une idée fausse courante est que nous connaissons la réponse avec une grande certitude.

Un mythe populaire est que nous savons que nous aurons une IA surhumaine au cours de ce siècle. En fait, l’histoire est pleine de sur-hypothèses technologiques. Où sont les centrales à fusion et les voitures volantes qu’on nous avait promis que nous aurions maintenant ? Par le passé, l’IA a également été sur-hypothéquée à maintes reprises, même par certains des fondateurs du domaine. Par exemple, John McCarthy (qui a inventé le terme « intelligence artificielle »), Marvin Minsky, Nathaniel Rochester et Claude Shannon ont écrit cette prévision trop optimiste sur ce qui pourrait être accompli pendant deux mois avec des ordinateurs de l’âge de pierre : « Nous proposons qu’une étude de 2 mois et de 10 hommes sur l’intelligence artificielle soit menée pendant l’été 1956 au Dartmouth College (…) Une tentative sera faite pour trouver comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des types de problèmes maintenant réservés aux humains et s’améliorent. Nous pensons qu’une avancée significative peut être réalisée dans l’un ou plusieurs de ces problèmes si un groupe de scientifiques soigneusement sélectionnés y travaillent ensemble pendant un été.

D’autre part, un contre-mythe populaire est que nous savons que nous n’aurons pas d’IA surhumaine au cours de ce siècle. Les chercheurs ont fait un large éventail d’estimations sur la distance qui nous sépare de l’IA surhumaine, mais nous ne pouvons certainement pas dire avec une grande confiance que la probabilité est nulle au cours de ce siècle, étant donné le triste bilan de ces prévisions techno-sceptiques. Par exemple, Ernest Rutherford, sans doute le plus grand physicien nucléaire de son époque, a déclaré en 1933 – moins de 24 heures avant l’invention par Szilard de la réaction en chaîne nucléaire – que l’énergie nucléaire était  » moonshine « . En 1956, l’astronome royal Richard Woolley appelait le voyage interplanétaire  » cale totale « . La forme la plus extrême de ce mythe est que l’IA surhumaine n’arrivera jamais parce que c’est physiquement impossible. Cependant, les physiciens savent qu’un cerveau se compose de quarks et d’électrons disposés pour agir comme un ordinateur puissant, et qu’aucune loi de la physique ne nous empêche de construire des quark blobs encore plus intelligents.

Il y a eu un certain nombre de sondages demandant aux chercheurs en IA dans combien d’années ils pensent que nous aurons une IA à l’échelle humaine avec au moins 50 % de probabilité. Toutes ces enquêtes ont la même conclusion : les plus grands experts mondiaux ne sont pas d’accord, alors nous ne savons tout simplement pas. Par exemple, dans un tel sondage auprès des chercheurs de l’IA à la conférence sur l’IA à Porto Rico en 2015, la réponse moyenne (médiane) était en 2045, mais certains chercheurs ont deviné des centaines d’années ou plus.

Il y a aussi un mythe connexe selon lequel les gens qui s’inquiètent de l’IA pensent que ce n’est que dans quelques années. En fait, la plupart des gens qui s’inquiètent de l’IA surhumaine pensent qu’il reste encore au moins des décennies à venir. Mais ils soutiennent que tant que nous ne sommes pas sûrs à 100 % que cela n’arrivera pas au cours de ce siècle, il est judicieux de commencer la recherche sur la sécurité dès maintenant pour se préparer à l’éventualité. Bon nombre des problèmes de sécurité associés à l’IA au niveau humain sont si difficiles à résoudre qu’ils peuvent prendre des décennies. Il est donc prudent de commencer les recherches dès maintenant plutôt que la nuit avant que certains programmeurs qui boivent du Red Bull décident d’en allumer un.

Une autre idée fausse courante est que les seules personnes qui s’inquiètent de l’IA et qui préconisent la recherche sur la sécurité de l’IA sont des luddites qui ne savent pas grand-chose sur l’IA. Lorsque Stuart Russell, auteur du manuel d’IA standard, en a fait mention lors de son discours à Porto Rico, l’auditoire s’est mis à rire bruyamment. On croit à tort que l’appui à la recherche sur l’innocuité de l’IA est extrêmement controversé. En fait, pour soutenir un investissement modeste dans la recherche sur la sécurité de l’IA, les gens n’ont pas besoin d’être convaincus que les risques sont élevés, simplement non négligeables – tout comme un investissement modeste dans l’assurance habitation est justifié par une probabilité non négligeable que la maison brûle.

Il se peut que les médias aient rendu le débat sur la sécurité de l’IA plus controversé qu’il ne l’est réellement. Après tout, la peur vend, et les articles utilisant des citations hors contexte pour proclamer la mort imminente peuvent générer plus de clics que les articles nuancés et équilibrés. Par conséquent, deux personnes qui ne connaissent les positions de l’autre que par des citations dans les médias sont susceptibles de penser qu’elles sont plus en désaccord qu’elles ne le sont réellement. Par exemple, un techno-sceptique qui n’a lu que la position de Bill Gates dans un tabloïd britannique peut penser à tort que Gates croit que la superintelligence est imminente. De même, quelqu’un dans le mouvement de l’IA bénéfique qui ne sait rien de la position d’Andrew Ng à part sa citation sur la surpopulation sur Mars peut penser à tort qu’il ne se soucie pas de la sécurité de l’IA, alors qu’en fait, il s’en soucie. Le point crucial est simplement que, parce que les estimations de Ng sont plus longues, il a naturellement tendance à donner la priorité aux défis à court terme de l’IA plutôt qu’aux défis à long terme.

Une intelligence artificielle peut elle dépasser l’intelligence humaine ?

De nombreux chercheurs en intelligence artificielle lèvent les yeux en voyant ce titre : « Stephen Hawking prévient que la montée des robots peut être désastreuse pour l’humanité. » Et autant d’entre eux ont perdu le compte du nombre d’articles similaires qu’ils ont vus. Typiquement, ces articles sont accompagnés d’un robot maléfique portant une arme, et ils suggèrent que nous devrions nous inquiéter des robots qui se lèvent et nous tuent parce qu’ils sont devenus conscients et/ou maléfiques. Sur une note plus légère, de tels articles sont en fait assez impressionnants, car ils résument succinctement le scénario dont les chercheurs en IA ne s’inquiètent pas. Ce scénario combine jusqu’à trois idées fausses distinctes : le souci de la conscience, le mal et les robots.

Si vous roulez sur la route, vous avez une expérience subjective des couleurs, des sons, etc. Mais est-ce qu’une voiture qui se conduit elle-même a une expérience subjective ? Est-ce qu’on a l’impression d’être une voiture autosuffisante ? Bien que ce mystère de la conscience soit intéressant en soi, il n’est pas pertinent pour le risque d’IA. Si vous êtes frappé par une voiture sans conducteur, cela ne fait aucune différence pour vous qu’elle soit subjectivement consciente ou non. De la même manière, ce qui affectera les humains, c’est ce que fait l’IA superintelligente, et non ce qu’elle ressent subjectivement.

La peur des machines qui tournent mal est un autre faux-fuyant. Le vrai souci n’est pas la malveillance, mais la compétence. Une IA superintelligente est par définition très bonne pour atteindre ses objectifs, quels qu’ils soient, et nous devons donc nous assurer que ses objectifs sont alignés sur les nôtres. Les humains ne détestent généralement pas les fourmis, mais nous sommes plus intelligents qu’eux – donc si nous voulons construire un barrage hydroélectrique et qu’il y a une fourmilière, tant pis pour les fourmis. Le mouvement beneficial-AI veut éviter de placer l’humanité dans la position de ces fourmis.

L’idée fausse de la conscience est liée au mythe selon lequel les machines ne peuvent pas avoir d’objectifs. Les machines peuvent évidemment avoir des objectifs dans le sens étroit d’un comportement orienté vers un objectif : le comportement d’un missile thermique s’explique le plus économiquement comme un objectif pour atteindre une cible. Si vous vous sentez menacé par une machine dont les objectifs sont mal alignés avec les vôtres, alors c’est précisément ses objectifs dans ce sens étroit qui vous dérange, et non pas si la machine est consciente et éprouve un sens du but. Si ce missile thermique vous poursuivait, vous ne vous exclameriez probablement pas : « Je ne suis pas inquiet, parce que les machines ne peuvent pas avoir de buts !

Je sympathise avec Rodney Brooks et d’autres pionniers de la robotique qui se sentent injustement diabolisés par des tabloïdes alarmistes, parce que certains journalistes semblent obsédés par les robots et ornent nombre de leurs articles de monstres métalliques aux yeux rouges et brillants. En fait, la principale préoccupation du mouvement beneficial-AI n’est pas avec les robots mais avec l’intelligence elle-même : en particulier, l’intelligence dont les buts sont mal alignés avec les nôtres. Pour nous causer des ennuis, une telle intelligence surhumaine mal alignée n’a pas besoin d’un corps robotique, simplement d’une connexion Internet – cela peut permettre de surpasser les marchés financiers, de surpasser les chercheurs humains, de surmanipuler les leaders humains et de développer des armes que nous ne pouvons même pas comprendre. Même si la construction de robots était physiquement impossible, une IA super-intelligente et super-riche pourrait facilement payer ou manipuler de nombreux humains pour qu’ils exécutent involontairement ses ordres.

L’idée fausse du robot est liée au mythe selon lequel les machines ne peuvent pas contrôler les humains. L’intelligence permet le contrôle : les humains contrôlent les tigres non pas parce que nous sommes plus forts, mais parce que nous sommes plus intelligents. Cela signifie que si nous cédons notre position de plus intelligent sur notre planète, il est possible que nous cédions aussi le contrôle.

Ne pas perdre de temps sur les idées fausses mentionnées ci-dessus nous permet de nous concentrer sur des controverses vraies et intéressantes où même les experts ne sont pas d’accord. Quel genre d’avenir voulez-vous ? Devrions-nous développer des armes autonomes létales ? Qu’aimeriez-vous faire avec l’automatisation des tâches ? Quels conseils de carrière donneriez-vous aux enfants d’aujourd’hui ? Préférez-vous de nouveaux emplois qui remplacent les anciens, ou une société sans emploi où chacun jouit d’une vie de loisirs et d’une richesse produite à la machine ? Plus loin sur la route, voudriez-vous que nous créions une vie superintelligente et que nous la diffusions dans notre cosmos ? Allons-nous contrôler des machines intelligentes ou vont-ils nous contrôler ? Les machines intelligentes vont-elles nous remplacer, coexister avec nous ou fusionner avec nous ? Que signifiera le fait d’être humain à l’ère de l’intelligence artificielle ? Qu’aimeriez-vous que cela signifie, et comment pouvons-nous faire en sorte que l’avenir soit ainsi ? Joignez-vous à la conversation !

Histoire de l’intelligence artificielle

Le terme d’intelligence artificielle a été inventé en 1956, mais l’intelligence artificielle est devenue plus populaire aujourd’hui grâce à l’augmentation des volumes de données, aux algorithmes avancés et à l’amélioration de la puissance de calcul et du stockage.

Les premières recherches sur l’IA dans les années 1950 ont exploré des sujets comme la résolution de problèmes et les méthodes symboliques. Dans les années 1960, le ministère américain de la Défense s’est intéressé à ce type de travail et a commencé à former des ordinateurs pour imiter le raisonnement humain de base. Par exemple, la Defense Advanced Research Projects Agency (DARPA) a terminé des projets de cartographie des rues dans les années 1970. Et DARPA a produit des assistants personnels intelligents en 2003, bien avant que Siri, Alexa ou Cortana ne soient des noms familiers.

Ces premiers travaux ont ouvert la voie à l’automatisation et au raisonnement formel que nous voyons aujourd’hui dans les ordinateurs, y compris les systèmes d’aide à la décision et les systèmes de recherche intelligents qui peuvent être conçus pour compléter et augmenter les capacités humaines.

Alors que les films hollywoodiens et les romans de science-fiction dépeignent l’intelligence artificielle comme des robots humains qui envahissent le monde, l’évolution actuelle des technologies de l’intelligence artificielle n’est pas si effrayante – ou si intelligente. Au lieu de cela, l’IA a évolué pour offrir de nombreux avantages spécifiques dans chaque industrie. Continuez à lire pour des exemples modernes d’intelligence artificielle dans le domaine des soins de santé, de la vente au détail et plus encore.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *