La Popularité de ChatGPT va Rendre les GPU Nvidia Rares, est-ce Vrai ?
Grâce à ChatGPT, la
technologie de l'IA en matière de modèles de langage devient populaire. De plus
en plus de chatbots d'IA sont développés par diverses entreprises, d'OpenAI à
Google, Meta et Alibaba, qui examinent et développent le potentiel des modèles
de langage de l'IA.
Bien sûr, il n'est pas
facile de développer un modèle de langage IA. Une technologie de pointe est
nécessaire pour former une IA à communiquer de manière aussi fluide que
ChatGPT, qui est actuellement populaire. Au milieu de cette popularité, des
rumeurs circulent selon lesquelles OpenAI aurait besoin de dizaines de milliers
d'unités de traitement graphique (GPU) pour former leur IA. Est-ce vrai?
OpenAI
aurait besoin de plus de 30 000 GPU
Selon un rapport de
TrendForce, le développement de ChatGPT nécessitait environ 20 000 cartes
graphiques pour traiter les données en 2020. En raison de sa popularité
croissante et de son utilisation de plus en plus répandue, TrendForce estime
qu'OpenAI aura besoin de plus de 30 000 cartes graphiques ou GPU.
Cette nouvelle réjouit
bien sûr les fabricants de GPU, notamment Nvidia. Le marché des GPU pour le
traitement des données n'est actuellement pas uniquement occupé par Nvidia.
Intel et AMD vendent également des accélérateurs d'IA. Néanmoins, Nvidia est
considéré comme la société de choix pour fournir des solutions d'IA.
En raison de la demande
croissante en cartes graphiques, Nvidia devrait également bénéficier de la
tendance des chatbots d'IA. La société GPU populaire auprès des joueurs devrait
générer un chiffre d'affaires de 300 millions de dollars grâce à la vente de
cartes graphiques à OpenAI.
Pas
d'utilisation de GPU pour le jeu
Selon les projections
de TrendForce, OpenAI, en tant que créateur de ChatGPT, aura besoin de plus de
30 000 GPU Nvidia pour traiter les données de formation. Néanmoins, les joueurs
peuvent se sentir soulagés car les séries requises pour le processus de
formation de l'IA sont différentes des GPU pour les jeux tels que la série
Nvidia GeForce RTX.
Selon les projections
de TrendForce, on estime qu'OpenAI utilisera le GPU Nvidia A100 pour former
leur IA. La raison en est que la série A100 est un accélérateur de calcul
beaucoup plus puissant que les cartes graphiques commerciales pour le jeu.
OpenAI pourrait également préférer utiliser la série Nvidia H100, qui est
censée être encore plus puissante que l'A100. Bien sûr, le prix de H100 est
beaucoup plus élevé que celui de l'A100.
La série A100 elle-même
coûte environ 10 000 à 15 000 dollars selon le facteur de forme et la
configuration. La série H100 est quant à elle vendue au prix de 30 000 dollars,
trois fois le prix de l'A100. Dans ce cas, cela n'affectera-t-il pas le stock
de GPU pour les jeux ?
La réponse n'est pas
claire. Tout dépend de la politique de Nvidia. Si le fabricant américain de GPU
doit se concentrer sur la production pour la formation de l'IA, il se peut que
sa production se déplace. Si Nvidia détourne sa production, la production de
GPU pour les jeux pourrait diminuer. J'espère que ces informations sont utiles
et n'oubliez pas de les partager.
Enregistrer un commentaire
Enregistrer un commentaire