La société qui peut construire une IA morale peut gagner

La société qui peut construire une IA morale peut gagner
4.8 (96.55%) 29 votes



<div _ngcontent-c14 = "" innerhtml = "

Les préjugés se révèlent être un énorme problème pour l'IA.

Shutterstock

Ce n’est un secret pour personne que notre technologie d’intelligence artificielle (IA) est aux prises avec un problème monumental de Frankenstein: le logiciel peut souvent hériter et amplifier tous les préjugés de ses créateurs. Les préjugés raciaux et sexistes dans l’IA ont fait la tête dans des applications telles que embauche, services financiers et maintien de l'ordre.

Mais la taille même du marché de l'IA – la technologie pourrait contribuer jusqu'à 15 000 milliards de dollars l’économie mondiale en 2030 – signifie que ce problème très médiatisé représente également une énorme opportunité. Les entreprises et les entrepreneurs qui peuvent maîtriser une IA éthique et sans parti pris peuvent gagner la confiance des consommateurs et gagner de l'argent, tandis que le marché punit les entreprises moins scrupuleuses.

Le monde est de plus en plus conscient de la prévalence du biais de l'IA et des nombreuses façons dont il peut s'infiltrer dans les logiciels.

Les biais peuvent infiltrer les logiciels d'intelligence artificielle lorsque les entreprises forment leurs modèles avec des données. L'exemple le plus célèbre est la reconnaissance faciale: si un algorithme utilise principalement des photos de personnes à la peau claire, il n'apprendra pas non plus à reconnaître les visages à la peau sombre. Étant donné que les personnes à la peau foncée constituent en fait la majorité mondiale, ces préjugés sont à la fois une affaire moche et une éthique.

Le biais de l'IA pourrait causer des problèmes aux personnes qui postulent pour des emplois, des prêts hypothécaires ou même, parole. Il est facile de voir que le risque économique et sociétal inhérent à ces algorithmes est de plus en plus puissant. Mais essayer de réprimer l'IA serait aussi une erreur. Outre la croissance économique que nous avons pu constater grâce à l'IA, cette technologie peut éliminer des tâches insignifiantes et amener les personnes vers de meilleurs emplois. aider les radiologistes à diagnostiquer plus rapidement et mieux le cancer; et amener les gens sur les marges financières à accéder au crédit.

Il n’est pas facile pour les entreprises de rectifier les préjugés dans les logiciels d’IA, principalement à cause d’une simple barrière psychologique: Il est généralement difficile de voir l’erreur de votre manière si vous pensez avoir agi honnêtement. Les entreprises auront du mal à identifier la source et la nature des défauts si elles ont construit leurs modèles d'IA de bonne foi. Il est encore plus difficile lorsque les données et les attributs utilisés par les entreprises pour tester un modèle d'intelligence artificielle contiennent très souvent exactement les mêmes biais que le modèle utilisé pour former le logiciel.

Même si le biais est dépisté avec succès, il peut avoir déjà causé des dommages. Par exemple, Amazon a découvert que un outil de recrutement ignorait les candidates et reprogrammait son logiciel pour ignorer un langage manifestement sexiste. Cependant, le logiciel corrigé avait déjà appris à utiliser des mots de genre moins évidents et prenait des décisions en conséquence.

Les entreprises peuvent également constater que le travail visant à éliminer les préjugés peut les conduire à un labyrinthe moral et sociologique. Leurs modèles d'intelligence artificielle doivent survivre dans plusieurs contextes sociaux différents, ainsi que pour résister à un examen philosophique et mathématique de ce qui constitue la justice et l'équité. Par exemple, la définition de l'équité dans une ville de New York ou de Californie peut être très différente de celle du Wyoming ou de la Virginie occidentale.

Cela ne signifie pas que les entrepreneurs et les entreprises doivent être découragés et abandonner leurs efforts pour éliminer les préjugés dans leur IA. Certaines mesures pratiques peuvent être prises pour minimiser les biais, par exemple, le déploiement d'un logiciel qui explique le fonctionnement interne – et expose les défauts éventuels – d'un modèle d'apprentissage automatique (ML). Les souscripteurs pourraient également fournir à leur IA des données alternatives pertinentes pour brosser un tableau plus détaillé et plus précis de la solvabilité d’un individu.

Mais corriger les failles du monde numérique revient à lutter contre les préjugés et les préjugés dans le monde réel: c’est un processus continu qui ne finit jamais. L'approche adoptée par les entreprises pour minimiser les biais dans leur IA devrait en tenir compte. Ils doivent constamment réévaluer les attributs et les ensembles de données de leur modèle ML. Les entreprises doivent également examiner en permanence les résultats de leur modèle pour rechercher des signes indiquant que quelque chose ne va pas. Il est également utile que les entrepreneurs et les entreprises axés sur l'IA s'assurent d'être les voix les plus fortes dans les conversations sur l'équité.

En fin de compte, le succès des entrepreneurs et des entreprises dans la construction d'une IA éthique peut dépendre de quelque chose de plus fondamental: la fibre morale. Les gagnants seront tous ceux qui ont le sens de l’équité et le désir de voir les choses s’améliorer.

">

Les préjugés se révèlent être un énorme problème pour l'IA.

Shutterstock

Ce n’est un secret pour personne que notre technologie d’intelligence artificielle (IA) est aux prises avec un problème monumental de Frankenstein: le logiciel peut souvent hériter et amplifier tous les préjugés de ses créateurs. Les préjugés raciaux et sexistes dans l’intelligence artificielle ont fait son apparition dans des applications telles que, et.

Mais la taille même du marché de l'IA – la technologie pourrait contribuer à l'économie mondiale en 2030 – signifie que ce problème très médiatisé représente également une énorme opportunité. Les entreprises et les entrepreneurs qui peuvent maîtriser une IA éthique et sans parti pris peuvent gagner la confiance des consommateurs et gagner de l'argent, tandis que le marché punit les entreprises moins scrupuleuses.

Le monde est de plus en plus conscient de la prévalence du biais de l'IA et des nombreuses façons dont il peut s'infiltrer dans les logiciels.

Les biais peuvent infiltrer les logiciels d'intelligence artificielle lorsque les entreprises forment leurs modèles avec des données. L'exemple le plus célèbre est la reconnaissance faciale: si un algorithme utilise principalement des photos de personnes à la peau claire, il n'apprendra pas non plus à reconnaître les visages à la peau sombre. Étant donné que les personnes à la peau foncée constituent en fait la majorité mondiale, ces préjugés sont à la fois une affaire moche et une éthique.

Le biais de l'IA pourrait causer des problèmes aux personnes qui postulent des emplois, des prêts hypothécaires ou même des prêts hypothécaires. Il est facile de voir que le risque économique et sociétal inhérent à ces algorithmes est de plus en plus puissant. Mais essayer de réprimer l'IA serait aussi une erreur. Outre la croissance économique que nous avons pu constater grâce à l'IA, cette technologie peut éliminer des tâches insignifiantes et amener les personnes vers de meilleurs emplois. aider les radiologistes à diagnostiquer plus rapidement et mieux le cancer; et amener les gens sur les marges financières à accéder au crédit.

Il n’est pas facile pour les entreprises de rectifier les préjugés dans les logiciels d’IA, principalement à cause d’une simple barrière psychologique: Il est généralement difficile de voir l’erreur de votre manière si vous pensez avoir agi honnêtement. Les entreprises auront du mal à identifier la source et la nature des défauts si elles ont construit leurs modèles d'IA de bonne foi. Il est encore plus difficile lorsque les données et les attributs utilisés par les entreprises pour tester un modèle d'intelligence artificielle contiennent très souvent exactement les mêmes biais que le modèle utilisé pour former le logiciel.

Même si le biais est dépisté avec succès, il peut avoir déjà causé des dommages. Par exemple, un outil de recrutement ignorait les candidates et reprogrammait son logiciel pour ignorer le langage manifestement sexospécifique. Cependant, le logiciel corrigé avait déjà appris à utiliser des mots de genre moins évidents et prenait des décisions en conséquence.

Les entreprises peuvent également constater que le travail visant à éliminer les préjugés peut les conduire à un labyrinthe moral et sociologique. Leurs modèles d'intelligence artificielle doivent survivre dans plusieurs contextes sociaux différents, ainsi que pour résister à un examen philosophique et mathématique de ce qui constitue la justice et l'équité. Par exemple, la définition de l'équité dans une ville de New York ou de Californie peut être très différente de celle du Wyoming ou de la Virginie occidentale.

Cela ne signifie pas que les entrepreneurs et les entreprises doivent être découragés et abandonner leurs efforts pour éliminer les préjugés dans leur IA. Certaines mesures pratiques peuvent être prises pour minimiser les biais, par exemple, le déploiement d'un logiciel qui explique le fonctionnement interne – et expose les défauts éventuels – d'un modèle d'apprentissage automatique (ML). Les souscripteurs pourraient également fournir à leur IA des données alternatives pertinentes pour brosser un tableau plus détaillé et plus précis de la solvabilité d’un individu.

Mais corriger les failles du monde numérique revient à lutter contre les préjugés et les préjugés dans le monde réel: c’est un processus continu qui ne finit jamais. L'approche adoptée par les entreprises pour minimiser les biais dans leur IA devrait en tenir compte. Ils doivent constamment réévaluer les attributs et les ensembles de données de leur modèle ML. Les entreprises doivent également examiner en permanence les résultats de leur modèle pour rechercher des signes indiquant que quelque chose ne va pas. Il est également utile que les entrepreneurs et les entreprises axés sur l'IA s'assurent d'être les voix les plus fortes dans les conversations sur l'équité.

En fin de compte, le succès des entrepreneurs et des entreprises dans la construction d'une IA éthique peut dépendre de quelque chose de plus fondamental: la fibre morale. Les gagnants seront tous ceux qui ont le sens de l’équité et le désir de voir les choses s’améliorer.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *