La Popularité de ChatGPT va Rendre les GPU Nvidia Rares, est-ce Vrai ?

Enregistrer un commentaire

La Popularité de ChatGPT va Rendre les GPU Nvidia Rares, est-ce Vrai ?

Grâce à ChatGPT, la technologie de l'IA en matière de modèles de langage devient populaire. De plus en plus de chatbots d'IA sont développés par diverses entreprises, d'OpenAI à Google, Meta et Alibaba, qui examinent et développent le potentiel des modèles de langage de l'IA.

Bien sûr, il n'est pas facile de développer un modèle de langage IA. Une technologie de pointe est nécessaire pour former une IA à communiquer de manière aussi fluide que ChatGPT, qui est actuellement populaire. Au milieu de cette popularité, des rumeurs circulent selon lesquelles OpenAI aurait besoin de dizaines de milliers d'unités de traitement graphique (GPU) pour former leur IA. Est-ce vrai?


OpenAI aurait besoin de plus de 30 000 GPU

Selon un rapport de TrendForce, le développement de ChatGPT nécessitait environ 20 000 cartes graphiques pour traiter les données en 2020. En raison de sa popularité croissante et de son utilisation de plus en plus répandue, TrendForce estime qu'OpenAI aura besoin de plus de 30 000 cartes graphiques ou GPU.


Cette nouvelle réjouit bien sûr les fabricants de GPU, notamment Nvidia. Le marché des GPU pour le traitement des données n'est actuellement pas uniquement occupé par Nvidia. Intel et AMD vendent également des accélérateurs d'IA. Néanmoins, Nvidia est considéré comme la société de choix pour fournir des solutions d'IA.


En raison de la demande croissante en cartes graphiques, Nvidia devrait également bénéficier de la tendance des chatbots d'IA. La société GPU populaire auprès des joueurs devrait générer un chiffre d'affaires de 300 millions de dollars grâce à la vente de cartes graphiques à OpenAI.

Pas d'utilisation de GPU pour le jeu

Selon les projections de TrendForce, OpenAI, en tant que créateur de ChatGPT, aura besoin de plus de 30 000 GPU Nvidia pour traiter les données de formation. Néanmoins, les joueurs peuvent se sentir soulagés car les séries requises pour le processus de formation de l'IA sont différentes des GPU pour les jeux tels que la série Nvidia GeForce RTX.


Selon les projections de TrendForce, on estime qu'OpenAI utilisera le GPU Nvidia A100 pour former leur IA. La raison en est que la série A100 est un accélérateur de calcul beaucoup plus puissant que les cartes graphiques commerciales pour le jeu. OpenAI pourrait également préférer utiliser la série Nvidia H100, qui est censée être encore plus puissante que l'A100. Bien sûr, le prix de H100 est beaucoup plus élevé que celui de l'A100.


La série A100 elle-même coûte environ 10 000 à 15 000 dollars selon le facteur de forme et la configuration. La série H100 est quant à elle vendue au prix de 30 000 dollars, trois fois le prix de l'A100. Dans ce cas, cela n'affectera-t-il pas le stock de GPU pour les jeux ?


La réponse n'est pas claire. Tout dépend de la politique de Nvidia. Si le fabricant américain de GPU doit se concentrer sur la production pour la formation de l'IA, il se peut que sa production se déplace. Si Nvidia détourne sa production, la production de GPU pour les jeux pourrait diminuer. J'espère que ces informations sont utiles et n'oubliez pas de les partager.

Article Similaire

Enregistrer un commentaire