週刊アスキー

  • Facebookアイコン
  • Twitterアイコン
  • RSSフィード

グーグル、生成AI“有料展開”急ぐ 運用コスト重く|AIニュースまとめて解説

2023年09月07日 07時00分更新

さくらインターネット、GPUクラウドへ来期78.5億円の追加投資(8月22日)

 生成AIの活用には高性能なGPUクラウドの活用が欠かせない。すでに世界中で取り合いになりつつあるが、国内でもインフラへの積極投資が進んでいる。

 国としてもこうした動きをサポートする形で進めるべきではないか。

NVIDIA、AI特需で純利益9倍 株価も一時500ドルを突破(8月25日)

 前述の話題に関連する動き。

 生成AI向けのGPUクラウドを構築するのであれば結局、現状はNVIDIAのGPUを使わざるを得ない部分がある。

 実のところ、いわゆるGPUの演算器構成が生成AIに最適かというと、そうではない。グラフィック向けに作られた構成よりもAIに向いた構造はあり、複数の企業が「よりAIインフラに向いたプロセッサーの開発」を進めている。その1つが、AMDやアップル、インテルで活躍したアーキテクトであるジム・ケラーの設立した「Tenstorrent」だ(参考:「Tenstorrentが日本支社を設立、自動運転の市場開拓が狙い」)。

 ただ、いまNVIDIAが選ばれているのは、単に演算力があるからではない。GPUを活用したソフトウエアの開発に「CUDA」が使われているからだ。アプリケーション開発と過去の蓄積を考えても、現状はNVIDIAを選ぶのが鉄板と言える。

 CUDAはグラフィック以外にGPUを活用する「GP(General Purpose)GPU」向けに作られた開発環境で、2009年から一般提供が始まった。当初はさほど活用されていなかったが、2010年代半ば以降、機械学習からマイニングまで、様々な用途に使われるようになっていった。

 現在NVIDIAが強いのも、じっくりCUDAを育て、インフラとして使われる存在になっているからでもある。

メタ、コードの生成に特化したAIモデル「Code Llama」を研究・商用利用可で公開(8月25日)

 コードを書くのに生成AIが有用、というのはよく知られた話だが、そのための専用基盤として、オープンなモデルが用意されたことは大きい。

 社名とは裏腹に技術をオープンにしないOpenAIに対し、Metaは徹底したオープン戦略で攻めていくようだ。

「ChatGPT」動作速度最大2倍、GPT-4使い放題の企業向けプラン(8月29日)

 生成AIの運用にはカネがかかる。グーグルにしろマイクロソフトにしろ、ビジネスツールでのコパイロット系サービスは、個人向けではなく企業向けにサブスクリプションの形で販売している。ChatGPTも既存のプランは個人向けと位置付け、企業向けを売っていきたいのだろう。

note、画像生成AIで記事の見出し画像を作成 Adobeと連携(8月29日)

 冒頭でもAdobe Expressの話を書いたが、この話もつながっている。noteでは写真をシェアして「見出し用のトップ絵」や内部のビジュアルとして使えるのだが、その延長として、Adobe Expressと連携してFireflyで生成した画像を使えるようになる、ということになる。

 生成AI自体を単体で使うと言っても、意外と用途は狭い。生成したものを使うサービス=用途とセットになって初めて活性化する。マイクロソフトとOpenAIの提携はその典型だったわけだが、他でも同じような例が増えてくることを予想させる。

この記事をシェアしよう

週刊アスキーの最新情報を購読しよう

この連載の記事