NVIDIAの会社概要
NVIDIAは、グラフィックス処理ユニット(GPU)および関連技術の開発と製造に特化した世界的な半導体企業です。同社は1993年に設立され、本社はアメリカのカリフォルニア州サンタクララに位置しています。
NVIDIAの主力製品は、高性能なGPUであり、それらはコンピュータゲーム、プロフェッショナルなグラフィックスおよびビジュアライゼーション、人工知能(AI)の応用など、さまざまな分野で広く使用されています。特に、深層学習や機械学習のようなデータ駆動型のタスクにおいて、NVIDIAのGPUは高速で効率的な処理を提供し、業界で広く採用されています。
NVIDIA($NVDA)の決算内容
決算サマリー
🧑💻 $NVDA NVIDIA FY24 Q1
⭕️EPS: $1.09(-20%)🆚$0.92
⭕️売上高: $7.19B(-13%)🆚$6.52B
▶️Highlights
◼️部門別売上高
🔸Data Center: $4.28B (+14%)📈
🔸Gaming: $2.24B (-38%)📉
🔸Professional Visualization: $295M (-53%)📉
🔸Automotive: $296M (+114%)📈
◼️non-GAAP gross margin: 66.8%… pic.twitter.com/ZPpuBGBbsZ
— ユーエスさん🇺🇸米国株投資🍺🥃🍷🍶⚽ (@us_stock_invest) May 24, 2023
売上推移
売上成長率
純利益推移
決算まとめ 本文
データセンター
全世界のアクセラレーション・コンピューティング・プラットフォームによる力強い成長により、記録的な収益となった42億8000万ドルは、前四半期比18%増、前年同期比14%増となった。ジェネレーティブAIは、コンピュート要件の指数関数的な伸びを促進し、AIを訓練し展開するための最も汎用性が高く、最もエネルギー効率が高く、最もTCOの低いアプローチであるNVIDIA加速コンピューティングへの移行を加速している。ジェネレーティブAIは、当社製品に対する需要の大幅な上昇を促し、当社の市場全体で機会と広範なグローバル成長をもたらした。
世界中のCSPが、企業や消費者のAIアプリケーションのトレーニングや推論への関心の高まりに応えるため、当社のフラッグシップGPUであるHopperおよびAmpereアーキテクチャの導入に向けた競争を展開しています。複数のCSPが、Microsoft Azure、Google Cloud、Oracle Cloud Infrastructureでのプライベートプレビュー、AWSでの今後の提供、CoreWeaveやLambdaなどの新興GPU専門クラウドプロバイダーでの一般提供など、それぞれのプラットフォームでのH100の提供を発表した。企業のAI導入に加え、これらのCSPは、Generative AIパイオニアからのH100に対する強い需要に応えている。
第二に、消費者向けインターネット企業も、Generative AIやディープラーニングベースの推薦システムの採用の最前線にあり、力強い成長を牽引している。例えば、Meta社は、H100を搭載したGrand Teton AIスーパーコンピュータを同社のAI制作・研究チーム用に導入している。
第三に、AIとアクセラレーション・コンピューティングに対する企業の需要は旺盛だ。自動車、金融サービス、ヘルスケア、テレコムなどの垂直分野で、AIとアクセラレーテッド・コンピューティングが、顧客のイノベーション・ロードマップや競争力のあるポジショニングに不可欠なものとなっていることがわかる。
自動車保険会社のCCCインテリジェント・ソリューションズは、修理の見積もりにAIを活用しています。また、AT&Tは、現場技術者が顧客により良いサービスを提供できるように、AIを使用して艦隊のディスパッチを改善しています。
大手企業向けサービスプラットフォームであるServiceNowは、DGX cloudとNeMoをいち早く採用した企業だ。彼らは、ServiceNowプラットフォーム専用のデータで訓練されたカスタム大規模言語モデルを開発している。私たちのコラボレーションにより、ServiceNowは、IT部門、カスタマーサービスチーム、従業員、開発者向けなど、ServiceNowプラットフォーム上で稼働する世界中の1,000以上の企業で、新しいエンタープライズグレードのジェネレーティブAIを提供することができる。
ジェネレーティブAIは、推論労働力の段階的な増加も促しています。規模が大きく複雑なため、これらのワークフローは高速化を必要としている。GTCでは、お客様が生成AIアプリケーションを大規模に展開できるよう、NVIDIAのAIソフトウェアスタックを活用した4つの主要な新しい推論プラットフォームを発表した。これらは、AIビデオ用のL4 Tensor Core GPU、Omniverse、およびグラフィックスレンダリング用のL40、大規模言語モデル用のH100 NVL、LLM用のGrace Hopper Superchip、また、推薦システムおよびベクターデータベースだ。
Google Cloudは、CSPとして初めて当社のL4推論プラットフォームを採用し、生成AI推論用のG2仮想マシンや、Google Cloud Dataproc、Google Elf、Google AlphaFold、Google CloudのImmersive Streamなどのワークロードで、3DやAR体験をレンダリングするサービスを開始した。また、Googleは、当社のTriton、およびFrenchサーバーを、Google Kubernetesエンジンおよび同社のクラウドベースのVertex AIプラットフォームと統合しています。
最後に、当社のデータセンター向けCPU「Grace」は、お客様とのサンプリングを行っている。今週ドイツで開催された国際スーパーコンピューティング会議において、ブリストル大学は、NVIDIA Grace CPU Superchipを搭載した新しいスーパーコンピュータを発表し、従来のスーパーコンピュータよりも6倍エネルギー効率が良くなっている。これにより、AIやクラウド、スーパーコンピューティングのアプリケーションにおいて、CPUのみとCPU/GPUの両方の機会を持つGraceの勢いが増している。BlueField-3、Grace、Grace Hopperスーパーチップの来るべき波は、新世代の超エネルギー効率の高い加速データセンターを実現する