NVIDIA CEOジェンセン・ファン来日、何を語ったのか?[前編]

2024年11月12-13日に来日したNVIDIAのCEO、ジェンセン・ファン氏がAI Summitにおいて、NVIDIAの考えるAI革命について述べました。

この記事は、そのプレゼンテーションの内容を元に、NVIDIAの取り組みについて解説していきます。

※1時間近い講演だったため、前後編に分けております。

NVIDIAのチップは身近なところに使われている

NVIDIAというと、ある人はパソコンのグラフィックボードを思い浮かべ、ある人は自動運転カーの頭脳として使われ、またある人は生成AIを実現するためにチップに使われていることを思い浮かべるでしょう。

しかし、実はNVIDIAと日本の産業の関係は昔からあり、古くは、SEGAの3Dゲーム機や任天堂Switch、東京工業大学のスーパーコンピュータなど、さまざまな場所で活用されています。

NVIDIAのAIチップ世界シェアは90%

最近のNVIDIAはグラフィックボードを作る企業というイメージから、AI向けのチップで世界シェア90%というところに注目が集まっています。

チップ生産という意味で、他社と差別化されているとしても、何もかもNVIDIAのチップでないといけないというわけではないはずなのに、なぜ世界シェア90%となるのでしょう?

それを理解するには、グラフィックボードの頃から培われたユーザ(プログラマ)との関係性について触れる必要があります。

チップの性能を活かすためのライブラリ群 CUDA

最近のAIコンピュータは、CPUとGPU、メモリ、記憶装置などさまざまな部品から構成されているのですが、最新のBlackwellと呼ばれるGPUは、TSMC製の4nmトランジスタを1040億個搭載している。SK HynicとMicronのつくる8TBものサイズのメモリに接続されていて、CPUとの間のやりとりは、1TB/sで行われています。

こんなGPUを複数枚繋ぐ技術が確立されていて、たくさんのGPUの力を合わせて1つの処理に使うこともできるし、さまざまな処理を分けて使うこともできます。

「使う」というのをもう少し細かくいうと、「ソフトウエアのプログラムがGPUの性能を引き出して、インテリジェントな処理に使う」ということになります。

つまり、何かの目的でAIを作りたいと思った人は、プログラムを書くわけなのですが、そのプログラムはGPUの性能をフルに使いこなすプログラムでなければなりません。一度重い処理を行うプログラムを書くとわかるのですが、ハードウエアの性能を引き出すプログラムを書くのは、決して簡単ではありません。

そこで、NVIDIAはCUDA(クーダ)と呼ばれる、プログラムが呼び出しやすい「ライブラリ」と呼ばれる「プログラムの固まり」を提供しています。

プログラマは、このライブラリ(CUDA)を使ってプログラムを書くことで、GPUのハードウエアの制御を、自分の目的に合わせて、上手いこなすことができるのです。

現在提供されているライブラリにはどんなものがあるのか?

このCUDAと呼ばれるライブラリですが、実は用途によっていろんなものが提供されています。

作りたいAIがあったら、その用途にあったライブラリを選ぶことで、より簡単にAIモデルを開発することができます。

ライブラリにどんなものがあるか、一例を紹介します。

ディープラーニングを支えるCuDNNライブラリ

AIといえば、ディープラーニングですが、CuDNNというライブラリがあるおかげで、話題の生成AI、ChatGPTも実現できています。

これまでのコンピュータは、「x」という入力をプログラムに通して「y」という結果を得られていたわけですが、機械学習においては、膨大な量のデータをインプットすることで、結果を予測することができるようになっています。

こういったことを簡単に、かつ高速に実現するのに欠かせないのが、CuDNNライブラリなのです。

半導体の高集積化に欠かせないリソグラフィ設計技術を飛躍的に進化するCuLihtoライブラリ

現在のコンピュータ製造には、半導体の高集積化が重要です。

一つのコンピュータが小型化、高集積化することで、例えばiPhoneのような小型のコンピュータにAIを搭載する、といったことが可能になるからです。

しかし、これを設計するには、通常何週間もかかるといわれており、設計フェーズのボトルネックともなっていました。

そこで、このCuLihtoライブラリを使うことで、設計工程を数週間から数時間にまで短縮できるようなるのです。

有名な事例としては、TSMCが半導体の高集積化に利用しているということです。

TSMCはNVIDIAの技術をつかって、より高度な半導体を作る、そして、その半導体をNVIDIAは活用してより高速処理ができるGPUを作る、ということになっているという点が重要です。

他にもいろんなライブラリが準備されている

他にも、AI航空写真のためのライブラリや、量子シミュレーションを行うためのもの、巡回セールスマン問題を解くためのものなど、さまざまな用途のライブラリが準備されています。

これらのライブラリを使いこなすことで、AIモデルを作るプログラマは、簡単にGPUの性能を引き出すことができるのです。

そして、NVIDIAが提供するCUDAに慣れてしまったプログラマや、CUDAを前提として開発されたAIモデルがたくさん登場することで、他社のGPUへの乗り換えが簡単にはできないようなエコシステムが形成されてきています。

この流れが加速している現在、簡単にNVIDIAのシェアが落ちることはないと思われるのも無理はありません。

新しいAIのためのオペレーションシステムLLMが登場

そして、近年、こういったライブラリを活用することで、大規模言語モデル(LLM)と呼ばれる新しいオペレーションシステムとも呼ばれるものが登場しています。

膨大なインプットは、「テキスト」や「音声」「映像」など多方面のデータからなり、それをLLMに通すことで、「知性」を生み出しています。インプットには「アミノ酸の配列」のような科学情報もあり、いろんなデータが考えられています。

そして、こういった膨大なデータを「観測データ」と呼びます。

この観測データをLLMにインプットすることで、まずAIはデータの意味を理解します。

例えば、文書であれば、単語だけでなく、語彙や文法なども理解するのです。

そして、LLMはデータ間のパターンや関係性を見つけます。例えば、「猫」という単語と「猫の画像」を紐つける、といった感じです。

そうやって、世界のさまざまなデータの関連性やパターンをLLMが認識することで、あらゆるインテリジェンスが生成できるようになっています。

これは、ChatGPTなどの生成AIを思い浮かべるとわかりやすいかもしれません。

例えば、テキストをインプットとして、テキストでアウトプットしようとすると、それは要約であったり、翻訳を行うことになります。

また、テキストをインプットとして、画像をアウトプットとすると、Midjournyのような画像生成AIとなります。同様にテキストから動画を生成すると、RunwayMLのようなビデオ生成AIとなります。

このようにして初期の生成AIは話題になりましたが、現在では、製薬業界において、化学物質をインプットとしてテキストをアウトプットとすることで、創薬の可能性のある化学物質について説明をしてくれるようになっているなど、産業での利用が進んできています。

こういった無数の可能性が、いろんな産業において試され、ビジネスに取り込まれていく中で、現在爆発的な数のアプリケーションが生み出されています。

LLMとGPUの性能

ところで、機械学習の脳であるGPUは、その処理能力が大きくなることでより多くのデータを短時間で処理することができます。

一方、AIへの期待からか、年々学習データは増えていて、GPUの性能強化が求められています。

例えば現状の2倍の量のデータを学習させたいとなると、2倍のサイズのAIモデルが必要になります。その結果、GPUは4倍の性能が必要になります。

こういう膨大なデータ処理を行うための性能向上が、まだまだ必要で、GPUの進化はまだ始まったばかりだとも言えます。

ChatGPT o1が創る、新しい推論の世界

ChatGPTを使ったことがある方は多いと思うのですが、これまでのChatGPTでは、何か質問を投げると1つの回答を示してくれていました。

一方で、その反射的な回答は、必ずしも良い回答とは言えないものでした。

そこで、ChatGPT o1が登場するのですが、これは何がすごいのかというと、1つの質問に対して、複数の回答を用意して、それを評価し、最良のものを選択するということができるところがすごいのです。

単純に回答を生み出すのではなく、考え、反芻し、計画することができる。これを実現するには、猛烈なスピードのGPUが必要で、これには新しいアーキテクチャも必要となるというわけなのです。

これが、今話題の「Blackwell」と呼ばれる進化したGPUなのです。

AIは誰もが使うAIエージェントに

こうやって、AIのモデルが簡単に作れるようになり、さまざまな用途のAIが生まれてくる中、次に期待がかかるのが、「デジタルAIワーカー」だと、ファン氏はいいます。

要は、人間の代わりに働くAIということなので、製造計画をたててくれたり、キャンペーンを最適化してくれたり、顧客サポートをしてくれたりします。

また、創薬のための研究をする人の助手になるかもしれないし、マネジメントに経営を教えてくれる家庭教師になったりもします。

人間が、人に教えるようにAIエージェントに学習を施し、会社に迎え入れ、会社のことも教えます。

そうすることで、社員の代わりにAIエージェントがデジタルAIワーカーとして働くのです。

AIを継続的に改善するためのテクノロジー

ここで、デジタルAIワーカーができたとして、人のように、経験を積むことでより良いワーカーたることは可能なのでしょうか?

NVIDIAは、AIを継続的に改善するためのテクノロジーを持っていて、そのプラットフォームを「NeMo」と呼んでいます。

NeMoには、たくさんのライブラリがあって、AIのファインチューニングや合成データの生成、評価などいろいろなことが可能です。

こういったライブラリをアクセンチュアのようなAI導入企業と一緒に、世界中の企業のワークフローの中に組み込むことに取り組んでいたり、ServiceNowのような独立系ソフトハウスと一緒にAIエージェント開発に取り組んでいたりします。

将来的には、ServiceNowだけでなく、SAPやSnowflakeなどさまざまなプラットフォーマーと連携して、さまざまな用途のAIエージェントを生み出し、企業はこれらを活用して業務の生産性を向上させ、新たな価値を生み出すことになる、としています。

こうやっていろんな用途で作られたAIエージェントの活用の方法は簡単です。

利用者はAIエージェントに話しかけるだけで、現在の経営状態をしり、外部環境の変化に対応するための手段をアドバイスしてくれるようになります。

AIエージェントが人の仕事を奪うのか?

人間の代わりにAIエージェントが仕事をしてくれるようになると、必ず聞かれるのが「AIエージェントが人の仕事を奪うのですか?」という問いです。

この問いは、AIが登場した初期からよく聞かれるものですが、ファン氏はこれに対し、「AIがあなたの仕事を奪うのではなく、AIを使った人があなたの仕事を奪うのです」と言っています。

つまり、Aiが登場した以上、なるべく早く使いこなせることができなければ、別のAIを使いこなした人があなたの仕事を奪う、といっているのです。

後編では、デジタルAIエージェントではなく、自動運転やロボットに使われる物理AIについて解説していきます。