NVIDIA domine le marché des accélérateurs d'intelligence artificielle dans le cloud plus que vous ne le pensez



<div _ngcontent-c14 = "" innerhtml = "

De nombreuses entreprises veulent rivaliser avec

NVIDIA
dans le nuage. Ils veulent tous une partie des applications «Inference-as-a-Service» basées sur l'IA que NVIDIA a activées au cours des dernières années. Gagner une part de marché significative contre NVIDIA sera plus difficile que la plupart d’entre eux se rendent compte.

Xilinx
semble être dans la meilleure position pour capturer la part de types d'instances cloud avec accélérateurs dédiés en 2019.

Des dizaines de puces d’accélérateur d’IA spécialisées sont en cours de développement dans des sociétés comme AWS, Graphcore, Gyrfalcon,

Intel
, Mythic et Wave Computing, ainsi que les puces FPGA d’Intel, de Xilinx et du nouvel entrant Achronix. Nombre de ces puces rivalisent avec NVIDIA pour soutenir la diffusion dans le cloud des modèles d’apprentissage approfondi qui sous-tendent les services destinés aux consommateurs, tels que l’emplacement publicitaire, les moteurs de recommandation pour la vente au détail, les haut-parleurs intelligents et la traduction linguistique.

Part des types d'instance

Jusqu'où les concurrents de NVIDIA doivent-ils aller pour freiner le marché des GPU polyvalents de NVIDIA? En mai 2019, les quatre principaux clouds ont déployé des GPU NVIDIA dans 97,4% des types d'instances de calcul Infrastructure-as-a-Service (IaaS) avec accélérateurs dédiés (tableau 1). Les types d'instance de calcul IaaS définissent les spécifications de chaque configuration unique de serveur fractionnaire que les clouds louent aux clients du service informatique.

Les quatre principaux clouds publics dans le monde sont Amazon Web Services (AWS), Google Cloud Platform (GCP), Microsoft Azure et Alibaba Cloud (également appelé «Aliyun»). Analyse Canalys Cloud service estime que ces quatre clouds représentaient 62,3% des revenus combinés IaaS et Platform-as-a-Service (PaaS) du cloud au premier trimestre 2019.

Implications de l'IA dans le cloud

Cela signifie concrètement que les nouveaux venus sur le marché des accélérateurs d’IA ne seront pas en concurrence avec tous les produits de NVIDIA. Ils seront chacun en concurrence avec un produit NVIDIA spécifique, tel que l’ancien Tesla K80 de NVIDIA ou le Tesla T4 récemment introduit.

En mai 2019, les quatre premiers clouds offraient près de 12 000 types d'instances, dont environ 2 000 contenaient des accélérateurs dédiés. Parmi les types d'instances avec accélérateurs dédiés, seul un petit nombre aujourd'hui ne repose pas sur les GPU NVIDIA (Tableau 1):


  • DMLA
    Les GPU représentent 1,0% des types d'instances
  • La part de type d'instance FPGA combinée pour Xilinx et Intel est de 1,6%

Tableau 1: Part des types d'instances avec des accélérateurs dédiés dans les quatre principaux nuages

Aperçu de Liftr Cloud

Parmi les quatre principaux nuages, seuls Alibaba Cloud et AWS offrent aux clients un choix d'instances d'accélérateurs dédiés non GPU ou FPGA non-NVIDIA (Figure 1). Dans AWS, les types d'instance utilisant les FPGA Xilinx sont nettement plus nombreux que chacun des trois GPU NVIDIA déployés par AWS. L’histoire d’Alibaba Cloud est plus nuancée, mais les types d’instance de NVIDIA Tesla P100 représentent toujours plus de la moitié des types d’instance disponibles d’Alibaba Cloud avec accélérateur dédié.

Figure 1: Part des types d'instances d'accélérateur dédié dans les quatre nuages ​​les plus importants

Figure 1: Part des types d'instances d'accélérateurs dédiés dans les quatre nuages ​​les plus importants, mai 2019

Aperçu de Liftr Cloud

Pour une définition détaillée de "Partage d'instance d'accélérateur dédié", cliquez sur ici.

Les FPGA chauffent

Xilinx a annoncé son Versal de prochaine génération «Plate-forme d’accélération de calcul adaptative» (ACAP) en octobre 2018. Xilinx souhaite abandonner l’utilisation de la vénérable désignation «FPGA» de Versal, car les solutions de Versal contiendront un mélange de logique programmable (le cœur des FPGA). ) plus une logique dédiée pour les interconnexions sur puce configurables, la connectivité hors puce, les cœurs de processeur et les accélérateurs spécialisés pour le traitement du signal et les tâches d'intelligence artificielle.

Versal sera activé par l’environnement de développement logiciel intégré SDAccel de Xilinx déployé dans la plupart des centres de données via des cartes d’accélérateur Xilinx ALVEO.

En décembre 2018, Intel annonce ses plans de projet «One API». Une API est un projet ambitieux visant à fournir un ensemble commun d’API aux processeurs de programmes, aux GPU, aux FPGA, aux processeurs d’intelligence artificielle dédiés et à tout autre accélérateur conçu par Intel. Selon Intel, "une version publique du projet devrait être disponible en 2019", ce qui la protège pour la publication du code de pré-production d'ici la fin de l'année.

Intel a annoncé sa famille de FPGA Agilex en avril 2019. Agilex est basé sur des chiplets, de nombreuses puces plus petites dans un boîtier multipuce, où chaque puce se concentre sur une tâche spécifique. Intel a axé sa messagerie Agilex sur la flexibilité et les performances matérielles, notamment les liaisons hors puce cohérentes avec la mémoire vers les processeurs, la prise en charge renforcée du DSP bfloat16 pour l’accélération de l’apprentissage en profondeur, la prise en charge de la mémoire avancée et d’autres spécifications techniques approfondies.

Agilex sera activé par le logiciel de conception Quartus Prime d’Intel. Intel fournit actuellement plusieurs versions de la «Carte d’accélération programmable Intel» utilisant à la fois ses FPGA Arria et Stratix actuels et sa plus ancienne carte d’accélération programmable (PAC) pour les fournisseurs de télécommunications. Toutefois, Intel n'a pas indiqué de date cible pour la disponibilité générale des puces ou des cartes Agilex.

AMD continue de suivre de loin l’activation et le marketing des logiciels d’informatique GPU de NVIDIA. AMD est capable de s’engager dans des efforts open source comme le Singularité conteneur performant avec plate-forme informatique GPU OCm et traduction HIP du code NVIDIA CUDA en C ++. Mais ces efforts n’ont pas déplacé les GPU d’AMD dans la part des grands fournisseurs d’accès au cloud des types d’instances d’accélérateur dédiées.

NVIDIA n'est pas encore assis

Le 17 juin, NVIDIA a annoncé qu’elle mettrait à la disposition de l’écosystème d’Arm sa gamme complète de logiciels d’informatique assistée par ordinateur et de calcul haute performance (HPC) d’ici à fin 2019, notamment eMAG d’Ampere, Kunpeng de Huawei (résolution des conflits commerciaux internationaux) et Marvell (anciennement Cavium) ThunderX série de processeurs de serveur. NVIDIA prend déjà en charge les architectures de processeur x86 (AMD et Intel) et POWER (IBM). L’ajout du support d’Arm complétera la couverture par NVIDIA de toutes les architectures de processeur de serveur actuellement (publiquement) planifiées pour le déploiement dans le cloud dans les prochaines années.

À emporter

Compte tenu de la profondeur de l’écosystème logiciel de NVIDIA et de son engagement singulier à accélérer l’intelligence artificielle, concurrencer avec un seul produit NVIDIA sur quelques nuages ​​est en soi une tâche difficile. La concurrence avec NVIDIA sur plusieurs produits et sur plusieurs clouds constituera un défi, en particulier pour les concurrents plus petits.

Je crois Xilinx dispose d'un avantage concurrentiel sur Intel pour se classer deuxième parmi les GPU NVIDIA dans le cloud. Xilinx a créé un écosystème concurrentiel autour de ses cartes d'extension de marque Alveo. Cet écosystème devrait permettre la transition des FPGA Xilinx vers son architecture Versal. Mais surtout, Xillinx n’est pas Intel. Les nuages ​​achètent déjà une part énorme de leurs processeurs à Intel, et certains achètent également des produits de stockage et de mémoire Intel Optane. Le fait d’avoir une offre de produits concurrentielle et de permettre la diversité de la chaîne d’approvisionnement des accélérateurs de cloud computing devrait bien jouer pour Xilinx. Les fournisseurs d'accélérateurs plus petits devraient prendre l'exemple de Xilinx, mais la route est longue.

L'accélération de l'intelligence artificielle ne concerne pas uniquement une puce, il s'agit de mettre en place une solution complète et utilisable d'apprentissage en profondeur, sans verrouillage du fournisseur. Au cours des prochains trimestres, il semblerait que Xilinx soit le mieux placé pour acquérir une part d'instances de calcul avec des accélérateurs dédiés.

L'auteur est un employé de DoubleHorn. Liftr Cloud Insights est un service de DoubleHorn.

L’auteur et les entités avec lesquelles l’auteur est affilié peuvent, de temps à autre, s’engager dans des transactions commerciales impliquant les sociétés et / ou les produits mentionnés dans cet article. L'auteur n'a pas investi dans les sociétés mentionnées dans cet article. Les opinions exprimées dans cet article n'engagent que l'auteur et ne représentent en aucun cas l'opinion de toute entité à laquelle l'auteur peut être affilié.

">

De nombreuses entreprises veulent rivaliser avec

dans le nuage. Ils veulent tous une partie des applications «Inference-as-a-Service» basées sur l'IA que NVIDIA a activées au cours des dernières années. Gagner une part de marché significative contre NVIDIA sera plus difficile que la plupart d’entre eux se rendent compte.

semble être dans la meilleure position pour capturer la part de 2019.

Des dizaines de puces d’accélérateur d’IA spécialisées sont en cours de développement dans des sociétés comme AWS, Graphcore, Gyrfalcon,

, Mythic et Wave Computing, ainsi que les puces FPGA d’Intel, de Xilinx et du nouvel entrant Achronix. Nombre de ces puces rivalisent avec NVIDIA pour soutenir la diffusion dans le cloud des modèles d’apprentissage approfondi qui sous-tendent les services destinés aux consommateurs, tels que l’emplacement publicitaire, les moteurs de recommandation pour la vente au détail, les haut-parleurs intelligents et la traduction linguistique.

Part des types d'instance

Jusqu'où les concurrents de NVIDIA doivent-ils aller pour freiner le marché des GPU polyvalents de NVIDIA? En mai 2019, les quatre principaux clouds ont déployé des GPU NVIDIA dans 97,4% des types d'instances de calcul Infrastructure-as-a-Service (IaaS) avec accélérateurs dédiés (tableau 1). Les types d'instance de calcul IaaS définissent les spécifications de chaque configuration unique de serveur fractionnaire que les clouds louent aux clients du service informatique.

Les quatre principaux clouds publics dans le monde sont Amazon Web Services (AWS), Google Cloud Platform (GCP), Microsoft Azure et Alibaba Cloud (également appelé «Aliyun»). service estime que ces quatre clouds représentaient 62,3% des revenus combinés IaaS et Platform-as-a-Service (PaaS) du cloud au premier trimestre 2019.

Implications de l'IA dans le cloud

Cela signifie concrètement que les nouveaux venus sur le marché des accélérateurs d’IA ne seront pas en concurrence avec tous les produits de NVIDIA. Ils seront chacun en concurrence avec un produit NVIDIA spécifique, tel que l’ancien Tesla K80 de NVIDIA ou le Tesla T4 récemment introduit.

En mai 2019, les quatre premiers clouds offraient près de 12 000 types d'instances, dont environ 2 000 contenaient des accélérateurs dédiés. Parmi les types d'instances avec accélérateurs dédiés, seul un petit nombre aujourd'hui ne repose pas sur les GPU NVIDIA (Tableau 1):


  • Les GPU représentent 1,0% des types d'instances
  • La part de type d'instance FPGA combinée pour Xilinx et Intel est de 1,6%

Tableau 1: Part des types d'instances avec des accélérateurs dédiés dans les quatre principaux nuages

Aperçu de Liftr Cloud

Parmi les quatre principaux nuages, seuls Alibaba Cloud et AWS offrent aux clients un choix d'instances d'accélérateurs dédiés non GPU ou FPGA non-NVIDIA (Figure 1). Dans AWS, les types d'instance utilisant les FPGA Xilinx sont nettement plus nombreux que chacun des trois GPU NVIDIA déployés par AWS. L’histoire d’Alibaba Cloud est plus nuancée, mais les types d’instance de NVIDIA Tesla P100 représentent toujours plus de la moitié des types d’instance disponibles d’Alibaba Cloud avec accélérateur dédié.

Figure 1: Part des types d'instances d'accélérateur dédié dans les quatre nuages ​​les plus importants

Figure 1: Part des types d'instances d'accélérateurs dédiés dans les quatre nuages ​​les plus importants, mai 2019

Aperçu de Liftr Cloud

Pour une définition détaillée de "Partage d'instance d'accélérateur dédié", cliquez sur.

Les FPGA chauffent

«Plate-forme d’accélération de calcul adaptative» (ACAP) de Xilinx en octobre 2018. Xilinx souhaite renoncer à l’utilisation de la vénérable désignation «FPGA» de Versal, car les solutions Versal contiennent un mélange de logique programmable (le cœur de FPGA) et une logique dédiée pour les interconnexions sur puce configurables, la connectivité hors puce, les cœurs de processeur et les accélérateurs spécialisés pour le traitement du signal et les tâches d'intelligence artificielle.

Versal sera activé par l’environnement de développement logiciel intégré SDAccel de Xilinx déployé dans la plupart des centres de données via des cartes d’accélérateur Xilinx ALVEO.

En décembre 2018, Intel annonce ses plans de projet «One API». Une API est un projet ambitieux visant à fournir un ensemble commun d’API aux processeurs de programmes, aux GPU, aux FPGA, aux processeurs d’intelligence artificielle dédiés et à tout autre accélérateur conçu par Intel. Selon Intel, "une version publique du projet devrait être disponible en 2019", ce qui la protège pour la publication du code de pré-production d'ici la fin de l'année.

Intel a annoncé sa famille de FPGA Agilex en avril 2019. Agilex est basé sur des chiplets, de nombreuses puces plus petites dans un boîtier multipuce, où chaque puce se concentre sur une tâche spécifique. Intel a axé sa messagerie Agilex sur la flexibilité et les performances matérielles, notamment les liaisons hors puce cohérentes avec la mémoire vers les processeurs, la prise en charge renforcée du DSP bfloat16 pour l’accélération de l’apprentissage en profondeur, la prise en charge de la mémoire avancée et d’autres spécifications techniques approfondies.

Agilex sera activé par le logiciel de conception Quartus Prime d’Intel. Intel fournit actuellement plusieurs versions de la «Carte d’accélération programmable Intel» utilisant à la fois ses FPGA Arria et Stratix actuels et sa plus ancienne carte d’accélération programmable (PAC) pour les fournisseurs de télécommunications. Toutefois, Intel n'a pas indiqué de date cible pour la disponibilité générale des puces ou des cartes Agilex.

AMD continue de suivre de loin l’activation et le marketing des logiciels d’informatique GPU de NVIDIA. AMD est en mesure de s’engager dans des efforts en source ouverte tels que le conteneur haute performance avec la plate-forme informatique GPU OCm et la traduction HIP du code NVIDIA CUDA en C ++. Mais ces efforts n’ont pas déplacé les GPU d’AMD dans la part des grands fournisseurs d’accès au cloud des types d’instances d’accélérateur dédiées.

NVIDIA n'est pas encore assis

Le 17 juin, NVIDIA a annoncé qu’elle mettrait à la disposition de l’écosystème d’Arm sa gamme complète de logiciels d’informatique assistée par ordinateur et de calcul haute performance (HPC) d’ici à fin 2019, notamment eMAG d’Ampere, Kunpeng de Huawei (résolution des conflits commerciaux internationaux) et Marvell (anciennement Cavium) ThunderX série de processeurs de serveur. NVIDIA prend déjà en charge les architectures de processeur x86 (AMD et Intel) et POWER (IBM). L’ajout du support d’Arm complétera la couverture par NVIDIA de toutes les architectures de processeur de serveur actuellement (publiquement) planifiées pour le déploiement dans le cloud dans les prochaines années.

À emporter

Compte tenu de la profondeur de l’écosystème logiciel de NVIDIA et de son engagement singulier à accélérer l’intelligence artificielle, concurrencer avec un seul produit NVIDIA sur quelques nuages ​​est en soi une tâche difficile. La concurrence avec NVIDIA sur plusieurs produits et sur plusieurs clouds constituera un défi, en particulier pour les concurrents plus petits.

Je crois Xilinx a créé un écosystème concurrentiel autour de ses cartes d'extension de marque Alveo. Cet écosystème devrait permettre la transition des FPGA Xilinx vers son architecture Versal. Mais surtout, Xillinx n’est pas Intel. Les nuages ​​achètent déjà une part énorme de leurs processeurs à Intel, et certains achètent également des produits de stockage et de mémoire Intel Optane. Le fait d’avoir une offre de produits concurrentielle et de permettre la diversité de la chaîne d’approvisionnement des accélérateurs de cloud computing devrait bien jouer pour Xilinx. Les fournisseurs d'accélérateurs plus petits devraient prendre l'exemple de Xilinx, mais la route est longue.

L'accélération de l'intelligence artificielle ne concerne pas uniquement une puce, il s'agit de mettre en place une solution complète et utilisable d'apprentissage en profondeur, sans verrouillage du fournisseur. Au cours des prochains trimestres, il semblerait que Xilinx soit le mieux placé pour acquérir une part d'instances de calcul avec des accélérateurs dédiés.

L'auteur est un employé de DoubleHorn. Liftr Cloud Insights est un service de DoubleHorn.

L’auteur et les entités avec lesquelles l’auteur est affilié peuvent, de temps à autre, s’engager dans des transactions commerciales impliquant les sociétés et / ou les produits mentionnés dans cet article. L'auteur n'a pas investi dans les sociétés mentionnées dans cet article. Les opinions exprimées dans cet article n'engagent que l'auteur et ne représentent en aucun cas l'opinion de toute entité à laquelle l'auteur peut être affilié.