Accueil SociétéAmérique États-Unis | Nouvelles technologies: Avec sa nouvelle “superpuce”, Nvidia en situation de “quasi-monopole” sur le marché de l’Ia

États-Unis | Nouvelles technologies: Avec sa nouvelle “superpuce”, Nvidia en situation de “quasi-monopole” sur le marché de l’Ia

Alors que Nvidia détient au moins 80 % du marché mondial des puces d'intelligence artificielle, la multinationale américaine a annoncé lundi la sortie d’une nouvelle "superpuce". La puce B200, présentée comme encore plus puissante que la précédente (H100), devrait notamment permettre d’entraîner des modèles plus complexes ou encore d’accélérer le temps de prédiction de ChatGPT et consorts. Ainsi que de conforter le "quasi-monopole" de Nvidia dans ce secteur de la tech.

Par panorama papers
0 commentaire 8,9K vues

Par Sandra Embollo

Déjà un acteur incontournable du secteur de l’intelligence artificielle, Nvidia a encore envoyé un message fort à la concurrence. La multinationale américaine spécialiste des semi-conducteurs a annoncé, lundi 18 mars, la sortie de sa nouvelle “superpuce” destinée à accompagner la révolution de l’intelligence artificielle (IA).

Dans un moment où Nvidia cherche à consolider sa position mondiale de fournisseur crucial – elle détient au moins 80 % du marché mondial des puces consacrées à l’IA -, son directeur général Jensen Huang a présenté la puce Blackwell B200 lors d’une conférence pour les développeurs à San Jose (Californie).

Nommée ainsi en hommage à David Harold Blackwell, le premier universitaire afro-américain entré à la National Academy of Sciences, cette technologie doit fournir pour l’IA des “superpuces” quatre fois plus rapides que celles de la génération précédente ayant servi à entraîner les modèles d’IA existants, selon Nvidia.

“Cette nouvelle puce affiche des performances impressionnantes avec une puissance de calcul qui continue de croître exponentiellement”, relève Fabrice Popineau, spécialiste de l’IA et enseignant-chercheur à la CentraleSupélec université Paris-Saclay. 

Pour Raphaël-David Lasseri, expert numérique, docteur en physique nucléaire théorique et fondateur de Magic LEMP, cette présentation de la multinationale américaine devrait entraîner une accélération du développement des IA existantes : “Ce qu’a annoncé Nvidia, c’est globalement un facteur cinq d’accélération de la puissance de calcul de l’entraînement des modèles”, explique-t-il. “Cela va permettre à la fois d’accélérer énormément les entraînements de modèles (d’IA, NDLR) et de réduire le nombre de puces nécessaires pour les entraîner. Et ainsi d’avoir des modèles de plus en plus gros, et donc de plus en plus puissants.”

“Vitesse de prédiction plus rapide” et IA multimédias

L’arrivée de la puce B200 semble, en effet, prometteuse pour la poursuite du développement des modèles d’IA – auxquels Nvidia a déjà apporté une contribution conséquente ces dernières années. Avec sa puce H100 sortie en 2022, la multinationale américaine s’est rendue indispensable au secteur de la tech, notamment des Gafam qui s’arrachent sa technologie à 37 000 euros pièce.

Des H100 tellement recherchées qu’elles faisaient dire à Elon Musk en 2023 qu’elles “sont plus difficiles à trouver que de la drogue”. Meta – le propriétaire de Facebook -, Microsoft, Google ou encore Amazon font partie des plus gros clients de Nvidia pour ces puces dédiées à l’IA. Les mêmes acteurs, ainsi qu’OpenAI et Tesla, devraient aussi utiliser la B200 à l’avenir, selon Nvidia.

Avec ses 80 milliards de transistors (des composants électroniques essentiels au fonctionnement d’une puce), la H100 a permis aux modèles d’IA d’être entraînés neuf fois plus rapidement que la moyenne. La puce B200 et ses 208 milliards de transistors vont encore accélérer la dynamique, et peut-être amorcer une nouvelle génération d’IA.

“Cette nouvelle technologie va notamment se concrétiser par une vitesse de prédiction plus rapide des modèles d’IA”, explique Raphaël-David Lasseri. “La version de GPT-4, par exemple, met du temps à prédire et avec ce qui a été annoncé par Nvidia – même si ce chiffre est à prendre avec des pincettes – cela pourrait amener une accélération de 30 fois la vitesse de prédiction. Donc cela veut dire aller beaucoup plus vite, et aussi servir plus d’utilisateurs en même temps avec moins de puces.” Le spécialiste de l’IA estime aussi que cette nouvelle puce devrait permettre de “réduire le temps de latence (le délai entre une action et le déclenchement d’une réaction, NDLR) et ainsi permettre des applications beaucoup plus naturelles en termes conversationnels.”

Les capacités supérieures de la B200 par rapport à la H100 devraient aussi permettre l’essor des IA générant des éléments multimédias – gourmands en puissance de calcul -, que ce soit pour de l’audio, de l’image (comme Midjourney, qui crée des images à partir de texte) ou encore de la vidéo (comme Sora, qui crée des vidéos à partir de texte). “On peut effectivement espérer que ces modèles d’IA soient plus performants avec ces nouvelles puces”, selon Fabrice Popineau.

En plus d’être dominant en matière de hardware (composants physiques) avec ses puces, Nvidia tire aussi son épingle du jeu sur les software (logiciels). “Tous les spécialistes IA utilisent principalement des librairies dont tout l’écosystème dépend de Nvidia. (Cette entreprise) a aujourd’hui la capacité de conduire le développement software en fonction de ce qu’elle est en capacité de faire d’un point de vue hardware”, indique Raphaël-David Lasseri.

Outre sa nouvelle puce, la firme a présenté lundi un nouvel ensemble d’outils logiciels destinés à faciliter la vente de modèles d’IA par les développeurs aux entreprises exploitant la technologie du groupe. Une manière pour Nvidia de pérenniser son “quasi-monopole” pendant encore quelque temps.

Subscribe
Notify of
guest

0 Comments
Inline Feedbacks
View all comments

à Lire Aussi

About Us / QUI SOMMES NOUS

As its name suggests, Panorama papers is a general information site which covers most of the world’s news in broad terms. We also have a YouTube channel where you will find great interviews and other current videos. Panorama papers is a PANORAMA GROUP LLC product. We work with our own means (without sponsors), to provide you with free and credible information.

US CONTACT

  1. 13384 Marrywood Court, Milton, Georgia 30004, United States of America;
  2. Email:  info@panoramapapers.com
  3. Tel.: +17707561762, +17035012817 
  4. Africa Office BP. 35435 Yaoundé-Bastos, Cameroon (+237) 699460010

SILICON VALLEY 237 APPELEZ VITE

© Copyright 2022 – PANORAMA GROUP LLC  All rights reserved. Deasigned by Adama Fofere Namen

0
Cliquez pour commenterx
()
x
Verified by MonsterInsights