エヌビディア(NVDA)は3月22日、複雑化する人工知能アルゴリズムの演算速度を高めるとする複数の新チップと技術を発表し、収益性の高いデータセンター事業を争うライバルチップメーカーとの競争を激化させることに成功しました。
エヌビディアのグラフィックチップ(GPU)は、当初、ゲーム市場における動画の品質を推進・向上させるのに貢献しましたが、いまや、企業がAIワークロードに使用するチップとして支配的な存在となっています。H100と呼ばれる最新のGPUは、AIモデルのトレーニングを含む一部の作業で、計算時間を数週間から数日に短縮するのに役立つと発表しています。
この発表は、エヌビディアのAI開発者会議オンライン版で行われたもので、エヌビディアの最高経営責任者ジェンスン・フアン氏は声明の中で、H100チップをAIインフラの「エンジン」と呼び、「データセンターはAI工場になりつつあり、大量のデータを処理し、洗練して知能を生産する」と述べています。
企業は、次に見るべき動画のレコメンドから新薬の発見まで、AIや機械学習を活用しており、その技術はますますビジネスにおける重要なツールとなっています。
H100チップは、台湾積体電路製造(TSMC)の最先端の4ナノメートルプロセスで生産され、800億個のトランジスタを搭載し、第3四半期に発売される予定だとエヌビディアは述べています。
H100は、エヌビディアの新しいスーパーコンピュータ「Eos」の構築にも使用され、エヌビディアは、今年後半に運用を開始すれば、世界最速のAIシステムになるとしています。
フェイスブックの親会社であるメタは1月に、今年中に世界最速のAIスパコンを構築し、その性能は5エクサFLPOS近くになると発表していますが、エヌビディアは22日、同社のスパコンが18エクサFLOPS以上で動作すると発表しました。
*エクサFLOPの性能とは、は毎秒1000兆回の浮動小数点演算を実行できる性能
エヌビディアはまた、Arm技術をベースにした「Grace CPU Superchip」という新しいプロセッサチップ(CPU)を発表しました。これは、エヌビディア社によるArmの買収契約が規制上のハードルにより先月決裂して以来、発表されたArmアーキテクチャを使用した最初の新しいチップです。
来年前半に発売されるGrace CPU Superchipは、2つのCPUチップを接続し、AIや集中的な計算能力を必要とするその他のタスクに焦点を当てる予定です。
チップ間のデータフローを高速化する技術を使って、チップを接続する企業は増えています。今月初め、アップル(AAPL)は2つのM1 Maxチップを接続するM1 Ultraチップを発表しました。
エヌビディアによると、この2つのCPUチップは、同じく22日に発表されたNVLink-C2C技術を使って接続されているとのことです。
自動運転技術を開発し、その事業を拡大しているエヌビディアは、今月から自律走行車用コンピューター「Drive Orin」の出荷を開始し、中国の電気自動車メーカーBYDと高級電気自動車メーカー、ルシード・グループ(LCID)が次世代フリート用にエヌビディア・ドライブを使用すると発表しました。
エヌビディアの自動車担当副社長であるダニー・シャピロ氏は、今後6年間で110億ドル相当の自動車ビジネスが「パイプライン」に存在し、昨年予測した80億ドルから増加していると述べました。シャピロ氏によると、予想される売上の伸びは、ハードウェアと、エヌビディアのソフトウェアによる経常的な売上の増加からもたらされるとのことです。
このように発表が相次ぎましたが、3月22日のエヌビディアの株価はこれに反応せず、横ばいか前日比マイナスで推移しています。
*過去記事はこちら エヌビディアNVDA