ためになる3Dグラフィックスの歴史(6)。AI技術の進化にGPGPUがもてはやされる背景

ためになる3Dグラフィックスの歴史(6)。AI技術の進化にGPGPUがもてはやされる背景
https://pc.watch.impress.co.jp/docs/column/zenji/1493893.html

 ※ 「なぜ、AIの実装に、GPUが用いられるようになったのか」の背景の一端が語られている…。

 ※ 長年の疑問が、ある程度解消した…。

 ※ 『マシンラーニング型AIの形成過程(≒学習過程)、そしてそのAIを活用過程(≒推論過程)において、この畳み込み演算を、大量に行なうことになる。

 畳み込み演算は、実務的には「行列同士の掛け算」なので、この計算はGPUが内包する膨大な「プログラマブルシェーダ実行ユニット」(つまりはシェーダプログラム実行ユニット)でそのまま演算可能なのだ。

 すなわち、GPUをGPGPU的に活用すれば、膨大なデータ量の畳み込み演算が高速に行なえるわけで、だからこそ、AI技術開発にGPUが引っ張りだことなったわけである。』…、という部分がキモか…。

 ※ 『ただ、GPUは、もともと3Dグラフィックスを描画するためのプロセッサだ。畳み込み演算専用機として利用するには、シェーダプログラム実行ユニットには、テクスチャユニットを始めとしたグラフィックス描画支援機能がたくさん接続されている。

 NVIDIAは、「GPGPU業界の方々がそこまで熱望するならば」……ということで、シェーダプログラム実行ユニットから余計な機能をバッサリとカットした畳み込み演算実行専用ユニットを、2017年発表のVolta世代のGPU「GV100」から搭載した。

Quadro GV100

 そう、それが言わずと知れた「Tensorコア」である。実は「推論アクセラレータ」の異名を持つTensorコアだが、実際に行なえるのは畳み込み演算(行列の乗算)だけ。
Tensorコアは、実はシンプルに畳み込み演算器に相当する』…。

 ※ 内部回路的には、ここがキモか…。かつ、NVIDIA一強となったキモでも、あるのか…。

『 トライゼット西川 善司 2023年4月17日 06:05

2022年3月、NVIDIAはその当時で世界最高性能のGPU「GH100」を発表。GPGPU専用として提供された。3Dグラフィックスを処理できないわけではないが、基本的にはGPGPUでの利用が想定されたプロセッサである。GPGPUセンセーションは、現在進行形で産業を席巻しつつある

 前回は、熟成を極めたDirectX 11と、「別バージョンのDirectX 11」として誕生したDirectX 12を紹介した。そしてこのDirectX 12がDirectX 11と併存することになった経緯、DirectX 12が誕生した時勢などについても解説しつつ、最後は近代GPUの基本技術基盤である「プログラマブルシェーダ」技術が進化していった結果、新概念「GPGPU」技術が誕生したことにも触れた。

 今回は、現在このGPGPU技術が、GPUにとって「3Dグラフィックス描画」に優るとも劣らぬほどに「重要なGPUの活用先」となってきている状況について深掘りしていきたい。

 実は、昨今の「人工知能ブーム」や「自動運転技術の発展」は、このGPGPUという概念が誕生しなければ、ここまで急速に進歩しなかったかもしれないと言われている。

 「ゲームの映像を描画すること」が主な仕事だったGPUが、どのようにして人工知能や自動運転といった技術開発に関係していったのか、その流れを振り返っていくことにしよう。

 今回は、かなり話が方々へと脱線していくが、このシリーズのまとめということで、あらかじめご了承いただきたい(笑)。

GPGPUが巻き起こしたマシンラーニング型AIのビックバン現象

 その筋の研究者達が、GPGPU技術をマシンラーニング(機械学習)型AIの実現に応用し始めたのは、2010年前後くらいからだとされる。

 そして、昨今のAIブームの直接のきっかけは、2012年に起きた「ある象徴的な事件」ではないか、とも言われている。

 スタンフォード大学が2010年より立ち上げた大規模な画像データベースに「ImageNet」というものがあり、当時約1,400万枚におよぶ膨大な画像データベースから課題として抽出された約50万枚の画像を学習し、その学習を完了したAIに対して約2万枚の試験画像を見せ、「これがなんであるか」を推論させる画像認識AIの競技「ImageNet Large Scale Visual Recognition Challenge」(ILSVRC)が毎年行なわれていた。

 ちなみに、この競技自体は2017年が最後の開催となっている。

 この「AIの画像認識力の優劣を競う競技」の2012年大会において、トロント大学のAlex Krizhevsky氏らが、GeForce GTX 580×2基構成のGPGPUマシン(要は2GPU構成のPC)で、平均的な人間の正解率を超える結果をはじき出して優勝した。

 なお、優勝したマシンラーニング型AIの実装手法についてまとめた論文は「ImageNet Classification with Deep Convolutional Neural Networks」としてまとめられている。

 NVIDIAのCEO、ジェンスン・フアン氏も、後年この2012年の出来事を「マシンラーニング型AIの世界にビッグバンが起きた」と語っている。

 この事件以降、マシンラーニング型AIはKrizhevsky氏が行なった実装手法に倣うようになり、進化と発展が一気に加速する。

NVIDIAが毎年開催しているGPU技術を主題にしたカンファレンス「GTC 2015」にて、ジェンスン・フアン氏(Co-Founder and CEO, NVIDIA)は、マシンラーニングの一形態である「ディープラーニング」(深層学習)が急成長していることをアピールした

CNN(Convolutional Neural Network : 畳み込みニューラルネットワーク)の論文が発表されたのは1998年だが、2012年のAlex Krizhevsky氏らの論文以降で劇的に研究開発が活発化したことに言及し、ジェンスン・フアン氏は、Krizhevsky氏らの論文が「マシンラーニング界にビッグバンをもたらした」と表現した

 また、2014年にはスタンフォード大学のAndrej Karpathy氏らが、画像を見せると流暢な英語でその画像の内容を解説する作文生成タイプのマシンラーニング型AIを発表した。これはまさに、昨今大ブームになっている対話型AIの源流に相当する研究だと言える。

 AIに鳥が写っている画像を入力すると、単に主題としての「鳥」だけを認識するのではなく、その画像中に描かれているすべてのオブジェクトを認識して、各オブジェクトの関係性を解釈して「鳥が木の枝に止まっています」と作文にまとめることができるAIが発表されたのだ。この論文は以下の動画で紹介されている。

スタンフォード大学のAndrej Karpathy氏らの論文「Automated Image Captioning with ConvNets and Recurrent Nets」からの抜粋。写真を見せられた学習型AIがかなり的確な英作文を披露する事例。学習した知識にないものが示されると間違えることもある。「赤ちゃんの例」はそのささやかな誤り例。

人間に拮抗する人工知性がビジネスになる予感は10年前から?

 ChatGPTに代表される、言語処理系AIの「凄み」は、実は今から10年以上前からその片鱗が現れていた。

 2011年、アメリカのTVクイズ番組「Jeopardy!」の全米チャンピオン大会に、IBMの研究グループが開発したマシンラーニング型AI「Watson」を出場させたところ、人間の挑戦者達を抑えて優勝したことがある。

アメリカのTVクイズ番組「Jeopardy!」の全米チャンピオン大会にIBM製のAI「Watson」が挑戦した

 とは言っても、当時出題された問題のAIへの入力は、音声認識経由ではなく、人間の手入力によるものだった。そのため、対等な対決ではなかったようだが、「AIが人間にクイズで勝つ」という事象は大きな驚きとして受け止められた。

 この「Watson」を開発したIBMの研究グループのリーダーRob High氏(IBM Fellow,VP,CTO)によれば、2010年代の人間は1日あたり2.5エクサバイト(2,500,000テラバイト)のデータをネットワーク上のストレージ上に出力しており、これが2020年代には1日あたり44ゼタバイト(44,000,000,000テラバイト)に突入すると予測している。

 また、High氏は、そうなったときに膨大なデータから人間の興味のある事柄を抽出したり、そこから分析を進めたり、あるいはそれらを組み合わせて新たなるコンテンツを創出したりするための手助けをしてくれる存在として、マシンラーニング型AIエージェントはいずれ不可欠な存在となるだろうと述べていた。

 2020年代の今は、まさにそんな状況になりつつある。

IBMのAI「Watson」研究開発グループのリーダーRob High氏(IBM Fellow,VP,CTO)は「今(発言時は2016年)から10年以内に、ネットワーク上を往来するデータのすべてをAIが認知を取得して学習するサーバーシステムが運用される時代が来るはずだ」と予見した

 こうした「AIに支援を受けるコンピューティングパラダイム」をIBMでは「COGNITIVE COMPUTING」と命名し、2013年に新しいジャンルのクラウドサービスとして事業化している(日本でのサービス開始は2016年から)。

 現在直近のWatsonの応用事例は、IBMのWatson活用事例のページにまとめられている。

 IBM自身も斬新な料理レシピを生成する「シェフ・ワトソン」などを稼動させ、話題を呼んだ。また、Watsonを幼児向けの知育玩具に応用した「CogniToys」などもリリースされた。
幼児の「なんで?」に応対できる能力を持つ知育玩具「CogniToys」シリーズ。登場時は話題にはなったが、シリーズが継続するほどの人気商品とならなかったようだ(笑)

ゲーム画面を見てプレイするゲームAIの誕生

 2015年にはGoogle系の英国ベンチャーのDeepMind社が開発したAIに、クラシックなゲーム機「Atari 2600」のブロック崩し、インベーダーなど、全49種のゲームをルールを教えずにプレイさせ、以前のプレイよりもスコアが高かったら「そのプレイは良いプレイだった」という評価を与え、反復的にプレイさせて学習させたところ(いわゆる強化学習モデル)、半数以上のゲームにおいて人間のトッププレイヤーの腕前を上回った成果を報告した。

DeepMind社が開発した「ゲーム画面を見てプレイするAI」の成長過程をまとめた動画。「どうすれば得点が稼げるか」を何百回という試行の繰り返しの過程で学習していく様が見て取れる
同じAIを「スペースインベーダー」で訓練させた事例。学習を終えたAIは、敵の弾を巧みに避け、飛来する高得点のUFOも確実に迎撃する

 2016年には、このDeepMindの開発したAI「AlphaGo」が、人類最強の囲碁プレイヤーとも言われる韓国人のイ・セドル九段を4勝1敗の戦績で打ち破ったニュースが世界を駆け巡った。

 ちなみに、このAlphaGoは、前出のAtari 2600をプレイしたAIと仕組み的には同じで、AlphaGoは基本的には囲碁のルールを知らないという事実も、業界に大きな衝撃を与えた。
 実は、AlphaGoは過去の膨大な上級者同士の対戦の棋譜の流れを「白石を白ピクセル」「黒石を黒ピクセル」とした「白黒画像の遷移データ」として学習し、最終局面において「これが勝ち」「これが負け」という「流れの筋」を学習して構築されたAIだった。

 なので、囲碁というゲームのルールそのものを深く理解はしていない。セドル九段が唯一勝利を収めた第4局は、中盤でAlphaGoが学習した膨大な過去の棋譜にないと推測される“奇手”を打ったことが勝因につながったと分析されている。

 囲碁の基本ルールすら知らなかったAlphaGoの弱点を突いてセドル九段は勝利したというわけである。SF漫画みたいな話でちょっとカッコイイ逸話である。

日本におけるマシンラーニング型AIのゲームへの導入事例

 日本においても、コンピュータゲームに対するAIの導入の研究は盛んだ。

 2019年に開催されたCEATEC 2019において、バンダイナムコは縦スクロールシューティングゲームの名作「ゼビウス」をプレイするAIロボを発表した。

 このAIは、前出のDeepMindが開発したゲームプレイAIとほぼ同方針の「教師なしAI」×「強化学習型AI」として開発されたものになる。

 つまり、AIはゲームのルールを一切教えられていない赤子状態でゼビウスをプレイさせられ「良い行動」をしたら「えらいぞ」と褒美を与えて訓練を繰り返し、開発されたものになる。

 学習にあたっては「実際のゲーム画面の15fps単位の画像」(一部処理しやすいように画像を低解像度化+鮮鋭化)を入力情報とし、「ゲーム画面に反応したレバー/ボタン操作」を出力情報としていた。

「Q56」(きゅうごろう)と名付けられたゼビウスAIプレイヤーロボ。実際の頭脳はこの白い展示台の下に隠されたデスクトップPC。Q56がアケコンを操作しているように見えるが、実はアケコン側の方が動いていて、Q56の腕の方が動かされている仕組み。ただ、展示中のゲーム画面が推論エンジンに入力され、リアルタイムにレバー/ボタン操作を出力しているので、AIデモとしてインチキはない
開発最初期の報酬授与条件は「高得点」だったが結果が振るわず。しかし開発後期「生存時間」に改めたところ、プレイが急激に洗練されたとのこと。ただ、あまりにも上手すぎても展示としておもしろみがないため、ブースではときどき失敗する学習レベルの低いAIをあえてお披露目したとしている。ちなみに、自機が死ぬとこちらに顔を向けて困った顔をする

 我々がPCやゲーム機で普段プレイしているようなコンピュータゲームに対しても、マシンラーニング型AIの導入の研究は行なわれている。

 特に興味深いのは、対人戦を想定したバトルAIの研究で、それらのAIは我々人間が実際に対人戦をプレイするように「その時点での戦局(ゲーム状況)」を理解した上で、AIが的確に方向レバー入力とボタン操作を行なわせて戦うものである。

 まず、先陣を切って商品化にまで漕ぎ着けたのがSNKだ。同社が2019年に発売した「サムライスピリッツ」(以下、サムスピ)で、そのAIプレイヤーが実装されている。
SNKの公式サイトに掲載されているサムスピのゴーストモードの紹介

 サムスピでは、プレイヤーという存在をシンプルな入出力演算器として考えているのが興味深い。

 具体的には、プレイヤーについて「1フレーム単位のゲーム状況」を入力情報として与えてやると、「レバー操作とボタン押し」を出力する演算器と見なすのである。

 なお、AIが出力する「レバー操作とボタン押し」は、あくまで「そういう操作をした」と見なされるゲーム操作データになる。物理的に実在するコントローラのレバーやボタンをロボットハンドが操作するわけではない。

 ここで言う「ゲーム状況」とは具体的には、闘い合う2体の両キャラ位置とモーション状態、両者のゲージ状態、残り時間、現ラウンド数(ラウンド取得状況)などを指す。

 サムスピでは、人間がサムスピを遊んだ際の「1フレーム単位のゲーム状況」とそのプレイヤーの「レバー操作とボタン押し」をマシンラーニングさせることで、そのプレイヤーのプレイスタイルを模倣するAI(ゲーム内ではゴーストと呼称)を構築する機能を搭載したのだ。

サムスピのゴーストモードの仕組み。プレイヤーのプレイスタイルの学習はゲーム機側の実機でリアルタイムに行なう実装となった。この画像はGame Creators Conference ’19のSNKゲーム事業本部R&D、泊 久信氏の「ニューラルネットワークを用いたAIの格闘ゲームへの組み込み」の発表資料より(以下同)
ゴーストモードと対戦した際、その推論エンジンは1フレーム毎にゲームコントローのレバー操作、ボタン操作を出力する仕様となっている

 同年、2019年に開催されたCEDEC 2019では、スクウェア・エニックス傘下の株式会社Luminous Productionsに所属する上段達弘氏が、3DバトルゲームのプレイヤーAIを、サムスピのゴーストAIに近いアプローチで制作した事例を発表している。
黒服キャラが敵AI、白服キャラがプレイヤーAI。ともにゲームコントローラを操作してキャラクタを動かしているというのがとても興味深い

AI技術の開発になぜGPGPUが有効なのか

 前出のAlphaGoでは、公開されている過去の膨大な数の世界トッププレイヤー同士の対戦棋譜を「畳み込みニューラルネットワーク」(CNN)に入力してマシンラーニングさせ、これを言わば「基礎知識」として持ち、この同じ基礎知識を持ったAI同士で対戦させて、勝敗が付いたら勝った方のゲームの進め方を「良棋譜」として学習結果に加えることで「腕前の強化」が行なわれていった。

 CNNは画像認識AIによく使われるニューラルネットワークで、入力した画像の特徴を抽出することに向いている。

 たとえば、膨大な「猫」の画像をCNN入力して、その学習結果として猫の特徴を取得すれば、撮りたてほやほやの新たな「猫」写真についても、このCNNはこれを猫として判断できるようになる(実際には入力画像が猫である確率を算出する)。

CNNの模式図例。512×512ピクセルの入力画像を256×256ブロックで畳み込み演算を行ない、その結果をさらに128×128ブロックで畳み込み演算を行なう。これを繰り返していくことで、入力画像ジャンルごとの特徴データが得られる。この特徴データの分類集積が実質的な学習ということになる。CNN基礎理論の発案は1970年代に行なわれていたが、演算量が膨大であったことから近年になってやっと実用レベルの技術に進化した

 CNN以外のニューラルネットワークには、たとえば回帰性ニューラルネットワーク(RNN : Recurrent Neural Network)と呼ばれるものもある。このRNNは、当初、音声や文章のような1次元データを取り扱うのに有効だとされていた。

 たとえば英語で「I」(私)のあとに続く単語として「am」や「was」が来る確率が高いことが見込まれるが、もし「I」の前に「When」があったとすると「When I」となるので「am」ではなく「was」へ続く可能性がグッと高まる。

 このように、データ同士の相関性を学習して動作するAIがRNN型AIである。言語の解読や翻訳、作文といった用途には、RNNが適しているとされる(現在はほかの手法が活用される傾向にあり)。

 さて、そもそもこのニューラルネットワークとは何なのか。

 和訳すれば「神経回路網」となるが、機能だけに着目して簡潔に説明すれば「複数要素からなるデータを入力してやると何らかの結果を返す関数」のようなものだ。

 これまでにさまざまな形態のニューラルネットワークが考案されているが、その多くの根幹演算には畳み込み演算(Convolution)が用いられる。

 畳み込み演算とは、与えられた2つの数列(データ)の要素同士を全組み合わせで乗算して加算し合わせる演算のことだ。

 ギターなどの楽器音に残響を与えるエフェクター装置などは、この畳み込み演算をもっともシンプルに活用した音響機器である。
数列X「3,5,-7」と数列H「12,-4」に対する畳み込み演算。数列Yに結果が収められるまでの演算過程

 マシンラーニング型AIの形成過程(≒学習過程)、そしてそのAIを活用過程(≒推論過程)において、この畳み込み演算を、大量に行なうことになる。

 畳み込み演算は、実務的には「行列同士の掛け算」なので、この計算はGPUが内包する膨大な「プログラマブルシェーダ実行ユニット」(つまりはシェーダプログラム実行ユニット)でそのまま演算可能なのだ。

 すなわち、GPUをGPGPU的に活用すれば、膨大なデータ量の畳み込み演算が高速に行なえるわけで、だからこそ、AI技術開発にGPUが引っ張りだことなったわけである。

 ただ、GPUは、もともと3Dグラフィックスを描画するためのプロセッサだ。畳み込み演算専用機として利用するには、シェーダプログラム実行ユニットには、テクスチャユニットを始めとしたグラフィックス描画支援機能がたくさん接続されている。

 NVIDIAは、「GPGPU業界の方々がそこまで熱望するならば」……ということで、シェーダプログラム実行ユニットから余計な機能をバッサリとカットした畳み込み演算実行専用ユニットを、2017年発表のVolta世代のGPU「GV100」から搭載した。

Quadro GV100

 そう、それが言わずと知れた「Tensorコア」である。実は「推論アクセラレータ」の異名を持つTensorコアだが、実際に行なえるのは畳み込み演算(行列の乗算)だけ。
Tensorコアは、実はシンプルに畳み込み演算器に相当する

 Tensorコアは、1基あたり、最大4×4要素の行列同士の乗算が1クロックで行なえる。具体的には、下図のような64回の乗算と48回の和算を1クロックで行なうことができる。
Tensorコアの1クロックあたりの演算実務を展開するこんな感じ。人間が筆算するには拷問レベルで面倒臭い

 普通のシェーダプログラム実行ユニットでは、1要素(1データ)が最大32bit浮動小数点(FP32)演算に対応しているが、Tensorコアはここは割り切っており、最大16bit浮動小数点(FP16)までと制限している。

 AI技術開発用途では、精度的にはFP16で必要十分過ぎるくらいであり、AIが取り扱う学習テーマによっては8bit以下でも十分とされることも多い。よって、最近のNVIDIA GPUのTensorコアでは8bit整数(Int8)、4bit整数(Int4)、1bit(バイナリ)にまで対応する。

 そうそう、最近のスマートフォン製品においては「AIチップ搭載!」というような触れ込みが目立つようになってきている。

 AIチップ搭載という魅惑のキーワードに痺れて、つい「オレのスマホちゃんは人工知能搭載だぜ、すげえぜ」と自慢したくなることがあるが、実はそのAIチップとは、ここまでで解説してきた「シンプルな行列演算器の塊」にしか過ぎない。

 いずれにせよ、高尚なAIも最小演算単位が畳み込み演算(行列の乗算)から成り立ってるということを考えると、我々の知性も根源自体はシンプルな演算の賜なのかもしれない……と思わされてなんとも感慨深い。
広がりを見せるマシンラーニング型AIの応用先

 さて、2012年以降、センセーショナルな発展を見せたマシンラーニング型AIのすべてにおいて、NVIDIAのGPUがGPGPU的に利用されていた。

 この事実は、前回紹介した「2010年の世界最速スパコンTOP10のうちの3台がNVIDIAのGPUベースだった」という事象に並ぶほど、NVIDIAにとって「GPGPUに対する強風の追い風」となったことは言うまでもない。

 マシンラーニング型AIは、ごくごく簡単にたとえれば「膨大なデータ同士の相関性を計算し、これを学習データにする」「AI利用時には、入力データとその学習データの相関を求めて、その度合いに応じた推論を導く」……というような処理系となっている。

 この仕組みは、画像の認識、インベーダーゲームをプレイするAI、囲碁をプレイするAIなどなど、あらゆる分野への応用が利く。

 そう、2012年以降、GPGPUベースとなったマシンラーニング型AIは「どんな分野で有効か」の探索フェーズに入り、まさに各産業分野において高効率かつ高精度なAI開発が急ピッチで進められている状況となっていった。

 たとえば音声データを取り扱った音声認識や、膨大な言語の文書データを取り扱った翻訳への応用はすでに実用レベルに達している。

 意外なところではディズニーやピクサーなどのCGアニメーション映画制作会社が、キャラクターに魅力的な動きを付けるのに、モーションキャプチャではなく、マシンラーニング型AIを応用する研究を始めている。

 日本では、塩野義製薬が新薬試薬の臨床試験解析にマシンラーニング型AIの導入を開始したことを発表しているし、レントゲン写真やMRI像から疾患の有無を判断するエキスパートシステムに、マシンラーニング型AIを導入しようとする研究も進められている。

 そして、リアルタイムに周囲の情景(映像)を認識して最良の行動を判断するだけでなく、過去の学習データから、今の情景から未来に起こりうる危険なことを確率的に予測できるマシンラーニング型AIもありふれた存在となりつつある。そう、自動車の自動運転向けAIなどはその最たる事例だと言えよう。
2017年5月にNVIDIAが開催したGTC 2017の基調講演にて、トヨタ自動車は自社の自動運転技術開発に、NVIDIAのGPUを搭載したSoCを採用することを発表した
マシンラーニング型AIは、学習データ次第で今見えている状況から、この先で起こりうる未来が確率論的に予測できるところが、従来のセンサーからのリアルタイム情報に基づいてアルゴリズムでリアクション的に意志決定するAIとの大きな違い。ドアが閉まっている車があったとき、過去に「突然ドアが開いて、そのドアに衝突したことがある。これは良くないこと」という学習があれば、同じ状況時に警戒ができる。リアルタイムにリアクションするだけでなく、起こりうることを予測して警戒できるAIは、自動運転技術の意志決定には非常に都合が良い
GPGPUの世界でも激化が進むGPUメーカー同士の戦い

 近年では「NVIDIAは妙にGPGPUに注力している」などと言われることがあるが、むしろ「GPGPUを積極活用している業界の方が金に糸目を付けない勢いで高性能GPUを欲している」状況になっており、今やグラフィックス業界に優るとも劣らぬほどのGPU市場の上客になりつつある。

 そんなわけで、企業体であるNVIDIAの行動方針に「GPGPUユーザー重視」の傾向が見られるようになったとしても不思議なことではない。

 冒頭で紹介したGH100のような「GPGPU専用のGPU製品をグラフィックス描画向けよりも先行してリリースする」という状況は、こうした背景があるからなのだ。

 さて、なぜここまでGPGPUの世界がNVIDIA一強になってしまったのだろうか。これにはいくつかの理由が考えられる。

 Radeonブランドを有し、プログラマブルシェーダ技術の進化に大きく貢献したはずのATIは、大手CPUメーカーのAMDに2006年に買収されている。

 AMDはCPUメーカーでもあるため、HPC(High Performance Computing : 学術界や産業界が欲する科学技術計算用の超高性能な計算処理系。端的に言えばスパコン)業界にCPUを訴求したいという思惑を捨てきれず、GPGPUの方向へ大きく傾倒した戦略をとることができなかった……と筆者は考えている。

 さらに、AMDは「そうしたHPC分野には、CPUとGPUを統合させた新構造のプロセッサが適しているはず」という姿を見出していた。

 この着想を元にした新プロセッサは当初「Fusion」というプロジェクトネームで発表されたのち、実際の製品としてはAPU(Accelerated Processing Units)シリーズで展開された。

 またAMDは、次世代APUシリーズに向けて、CPU管理下のメモリ空間とGPU管理下のメモリ空間を論理的に共有一体化させたGPGPUプラットフォームとして、HSA(Heterogeneous System Architecture)を提唱。
NVIDIAがGPGPUに舵を切った2010年前後、AMDはGPGPUよりもヘテロジニアス(異種混合)コンピューティングの実現に未来を感じ、「Fusion」プロジェクトを推進した

 この流れは非常に有効そうに見えたのだが、初期のAPUはどちらかと言えばエントリークラスからミドルクラスの性能を持った、一般ユーザー向けの普及価格帯PC向けソリューションとして訴求されていため、HPC業界に振り向いてもらえなかった。。

 歯に衣着せずに言うと、最初期のAPUはCPU性能もGPU性能もHPCが求めるパフォーマンスに達していなかった……ということである。

 このタイミングで、若干時代の流れを読み間違えたAMD(ATI)は、GPGPU向け戦略(≒近代HPC戦略)においては相応の遅れをとってしまった感がある。

 ATI買収をきっかけにしてAPU開発に傾倒し、GPGPU環境整備に遅れをとったAMDだったが、このAPUプロジェクトそのものは一定の成功を収めているということだけは付け加えておこう。

 そう、PS4、PS5、Xbox One、Xbox Series Xなどの近年の家庭用ゲーム機のメインプロセッサは、すべてAMDのAPUであり、言わばFusionプロジェクトの間接的な産物なのであった。
近年の家庭用ゲーム機の多くは、AMDのAPUを使用している

 さて、AMDは、この「遅れ」を取り戻すべく、2015年前後あたりからGPGPU環境整備ヘの取り組みを積極的に行なうようになり、2016年にAMD独自のプラットフォーム「ROCm」(Radeon Open Compute Platform)の推進を開始した。
NVIDIAのCUDA戦略に対抗すべく、GPGPU(≒GPU COMPUTING)環境整備に力を入れ始めたAMDは、ROCmを推進中

 以降、堅実的な開発と環境整備を続けたことで(まだまだNVIDIAのCUDAプラットフォームほどではないが)、徐々にHPCの世界で存在感を強めつつはある。

 近年では、AMDのRyzen CPUと、同社のGPGPU専用GPU製品であるRadeon Instinctの組み合わせで構成されたスパコンが、米国のオークリッジ国立研究所(ORNL)と米国エネルギー省(DoE)に採用されたことが大きく報じられた。
米エネルギー省、世界最速の新スパコンにAMD製CPU/GPUを採用

 GPUの覇権争いは、今後GPGPUの世界でも続くと見て間違いない。
「ためになる3Dグラフィックスの歴史」シリーズのまとめ

 もともとこのシリーズは、編集部から「なぜNVIDIAとAMD、Intelといった異なる半導体メーカーが作るGPUで、同じようなゲームグラフィックスが出せるのでしょうか?」というお題が起点となっていた。

 全6回の間、だいぶ脱線することも多かったが、GPUというプロセッサの活用のされ方がここ20年くらいで、まるっきり変貌してしまったので、それも致し方がないといったところ。

 今回のシリーズは、本稿でひとまずの終わりとなる。最後に、全6回のまとめを年表的な箇条書きで示し、元々のお題に対する回答のようなものを示そうかと思う。

【1】1990年代初期。もっとも身近なリアルタイム3Dグラフィックスはゲームセンターのゲーム機に存在した。
1993年に登場した「バーチャファイター」

【2】1990年代中期。PCでリアルタイム3Dグラフィックスを実現する気運が高まるが、それを担当する3Dグラフィックスハードウェアとその制御APIが乱立した。DirectX(Direct3D、以下同)は登場当時は求心力が低かった。
初代Voodooを搭載した3Dグラフィックスハードウェア。当時はDirectXの影は薄く、これを動かすには3dfx社独自のAPI「Glide」を用いる必要があった

【3】1990年代後期。DirectX7登場とともに、それまでCPUが担当していたジオメトリ演算系までをも、3Dグラフィックスハードウェアが担当可能になる。「GPU」というキーワードの誕生を機に、いくつかあった3DグラフィックスAPIにおいても淘汰が開始され、DirectXの立場が向上する。
1997年に登場した「バーチャロン」。IntelのSIMD拡張命令であるMMX技術が使われた

【4】2000年代初期。GPUの機能拡張(≒3Dグラフィックスにおける新表現の実装)をソフトウェアの形で行なっていく枠組み「プログラマブルシェーダ技術」が誕生する。これにいち早く対応したDirectX 8がこの技術の進化を牽引していく流れに。
DirectX 8世代のGPUから採用された「プログラマブルシェーダアーキテクチャ」。写真はその対応GPU「GeForce3」

【5】2000年代中期。プログラマブルシェーダ技術の発展とともにGPUの進化が加速。一方で、たくさん存在した3Dグラフィックスハードウェアメーカーの淘汰が進む。
Permedia2を搭載した「Fire GL 1000 Pro」。3Dlabs社は2002年にシンガポールのCreative Technology社に買収され、2006年にはGPU事業から撤退

【6】2000年代後期。NVIDIA GeForce対ATI(AMD) Radeonの闘いが激化。この闘いが追い風となってGPUはより高性能化。プログラマブルシェーダ技術のプログラマビリティが一層強化。DirectXもDirectX 11まで進化する。
「GeForce FX 5900 Ultra」と「RADEON X1800 XT」

【7】2010年代初期。高まったGPUのプログラマビリティがGPGPU技術を育み、実用化へと進む。任天堂、ソニー、Microsoftの三大家庭用ゲーム機はすべてプログラマブルシェーダ技術ベースへ。対応最後発は2012年発売の任天堂のWii U。ちなみに、もっとも早く対応したのは2001年発売の初代Xbox。2番手は2006年発売のPS3。
2001年に発売された初代「Xbox」は、世界初のプログラマブルシェーダ技術採用の家庭用ゲーム機

【8】2010年代中期。GPGPUがマシンラーニング型AIの開発に大きく貢献。GPU制御APIの抽象レイヤーを薄型化する流れが発祥した結果、DirectX 12とVulkanが台頭する。ただし、旧来APIのDirectX 11とOpenGLも併存することに。
Vulkanの前身となった「Mantle」。AMDが2013年に発表

【9】2010年代後期。GPGPU技術の加速度的な進化で、自動車の自動運転技術開発を始め、GPGPUとAIが切っても切れない関係性へ。GPGPU市場が大規模化する。また、このタイミングでGPUにリアルタイムレイトレーシング機能が搭載される(本シリーズでは未フォロー)。
世界初のGPGPU対応GPU「GeForce 8800 GTX」。発表は2006年

 こんな感じになるだろうか。

 「なぜ、NVIDIAとAMD、Intelといった異なる半導体メーカーが作るGPUで、同じようなゲームグラフィックスが出せるのでしょうか?」という問いに対しては、

「プログラマブルシェーダ技術」の規格化によって、3Dグラフィックス表現がソフトウェアの形で行なえるようになり、広範囲な互換性が担保されるようになったから

……ということになろうか。

 プログラミング言語的な方言、APIのパラメータの与え方の違い、座標系の違い……といった細かな差異はあれど、同じプログラミングモデルで制作されているため、ほとんどの近代3Dゲームグラフィックスは異機種間に対する相互移植が可能となっている。

 また、昨今の発展著しい先進のゲームエンジン技術の台頭により、そうした相互移植性まで面倒を見てくれるようにもなってきている。

 ただ、今でもGPUごとに、プログラマブルシェーダ技術の実行時の結果に、微細な結果が出ることはある。

 なぜそうしたことが起こりうるのかについては、本シリーズの2回目や3回目で紹介した「緑のたぬきと赤いきつね」の闘いのあたりで触れたエピソードのようなことが、未だに細かい部分で残っているからである。

 なお、今回のシリーズでは、レイトレーシング技術に付いては一切触れなかったが、これはまだ進化の途中であり、この後の進化の方向性が定まっていないためだ。また時間が経ったときに、このあたりの話題はお届けすることにしたい。

 それではまた。 』

マザーボード「RTX4090くん、もう僕じゃ君を支えられない・・・」 RTX4090「任せろ!!!」

マザーボード「RTX4090くん、もう僕じゃ君を支えられない・・・」 RTX4090「任せろ!!!」 : PCパーツまとめ
http://blog.livedoor.jp/bluejay01-review/archives/59797978.html

 ※ 教訓:「三連ファン」だと、「もてあます…」。

 ※ 「つっぱり棒」とか、論外だ…(オレも、使ったけど…)。

 ※ 性能追わずに、「二連ファン」にしておく方がいい…。

※ 三連ファンが、「フル回転する」と、ハンパなくウルセーし…。

※ ゲームの「クオリティ」下げれば、「二連ファン」でも十分いける…。

※ しかし、4Kモニターで「ハイクオリティ」で「ヌルヌル動かす」とか始めると、「際限無くなる」…。

※ もの事何でも、限度というものは、ある…。

※ どっかで、妥協しないと…。

FTC、英アームの買収阻止へ 米エヌビディアなど提訴

FTC、英アームの買収阻止へ 米エヌビディアなど提訴
https://www.nikkei.com/article/DGXZQOGN0304I0T01C21A2000000/

 ※ 『エヌビディアの競合もアームの技術に依存しており…』…。

 ※ 『エヌビディアの競合』って、AMDのことか…。

 ※ GPUって、アームの設計技術を使っていたっけ…。

 ※ ちょっと、よく分からない…。

 ※ それよりも、「米連邦取引委員会(FTC)」というものは、こういう「海外企業の買収」に対しても、「差し止め」ができる権限を持つんだな…。

 ※ そのことに、ちょっと驚いた…。

『【ラスベガス=白石武志】米連邦取引委員会(FTC)は2日、米半導体大手エヌビディアによる英半導体設計アームの買収計画をめぐり、反トラスト法(独占禁止法)に基づき差し止めを求める訴訟を起こした。両社の統合は「競合する次世代技術を阻害する」などと主張した。アームを傘下に持つソフトバンクグループ(SBG)の戦略にも打撃となる。

【関連記事】
・AI半導体、覇権狙うエヌビディア アーム買収
・ソフトバンクG、英アーム売却発表 米エヌビディアに

FTCは訴状で、幅広い半導体メーカーに設計技術を供与するアームについて「半導体業界のスイスと呼ばれる」と指摘。エヌビディアの競合もアームの技術に依存しており、買収を認めれば「技術支配力を利用して競合他社を弱体化させる能力と動機を与える」と主張した。

競争が阻害されることで最終的には品質の低下や価格の上昇を招き、アームの技術を使った製品の恩恵を受けている「数百万人の米国人に損害を与えることになる」と指摘した。乗用車向けの運転支援システムや、クラウドサービスを支えるデータセンター向けCPU(中央演算処理装置)の競争などで悪影響を懸念しているという。

エヌビディアなどは2020年9月にSBGからアームを最大400億ドル(約4兆5000億円)で買収すると発表した。アームが保有する半導体の設計技術を手に入れ、人工知能(AI)の計算に使う省電力の半導体で競争力を高める狙いだった。業界では発表当初から「アームの中立性が失われる」との懸念が出ており、米クアルコムなどが反対していた。

提訴の是非を判断する採決に参加した4人のFTC委員は全員が買収阻止に賛成した。提訴に踏み切るまでの調査にあたっては、欧州連合(EU)や英国、日本、韓国の競争当局と緊密に連携したという。FTCは、訴訟は22年8月に始まるとしている。

エヌビディアは同日、「FTCの手続きが次の段階に進むにあたって、我々はこの(買収)取引が業界に利益をもたらし、競争を促進するものであることを示す努力を続ける」と述べた。同社の株価は前日比2.2%高で引けた。アーム側はコメントを避けた。』

NVIDIA、Armベースのデータセンター向けCPU「Grace」投入を表明

NVIDIA、Armベースのデータセンター向けCPU「Grace」投入を表明
現在のx86ベースのCPUと比較して10倍の性能を発揮

笠原 一輝2021年4月13日 02:00
https://cloud.watch.impress.co.jp/docs/news/1318150.html

『半導体メーカーのNVIDIAは、4月12日午前8時(米国太平洋時間、日本時間4月12日午前0時)から同社の年次プライベートカンファレンス「GTC 2021」を開催しており、同社のAIに向けた各種ソリューションなどに関して多くの発表を行っている。

 そのGTC 2021の最初のセッションとして開催された同社 CEO ジェンスン・フアン氏の基調講演では、新しいデータセンター向けのCPUとして、開発コード名「Grace」(グレース)と呼ばれる製品を2023年に投入することを明らかにした。

NVIDIAのGrace(右)を搭載したマザーボード、左のもう1つのチップはGPU(提供:NVIDIA)

 NVIDIAによれば、GraceはArm社が開発する新しいデータセンター向けのCPUコアIPデザイン「次世代Neoverse(ネオバース)」が採用され、CPUコア1つあたりの処理能力がSPECrate2017_int_baseベンチマークで300を超える性能を発揮する。

 また、NVIDIAがサーバーなどでGPUとGPUを接続するインターコネクトとして導入しているNVLinkの次世代版が搭載されており、キャッシュコヒーレントに対応したNVLinkを利用した場合、CPUとGPU間の帯域幅は900GB/秒、キャッシュコヒーレントを使わない場合には600GB/秒の帯域を実現する。

 さらに、メモリコントローラはLPDDR5に対応。メモリ帯域は500GB/秒となり、現状の2倍の帯域幅を実現するという。

 なお、このGraceとNVIDIAのGPUを組み合わせることで、現在のx86 CPUとNVIDIA GPUの組み合わせでディープラーニング(深層学習)の大規模なモデル(1兆パラメータを持つモデル)を学習させた場合に1カ月かかる処理が、10分の1のわずか3日に短縮できるとのことだ。

x86 CPUベースの「DGX A100」と比べ性能が10倍となるArm CPU「Grace」

 NVIDIAが発表したGraceは、同社が「次世代Neoverse」と呼んでいるArmのデータセンター向けCPUデザインIPを採用している。Armは2018年の「Arm Techcon 2018」で、同社のデータセンター向けCPUのデザインIPとなる「Neoverse」を発表しており、既に同社の顧客などで採用されている。

 NVIDIAは現時点で、その次世代Neoverseがどういうものなのかは明らかにしていないが、Armが先日発表したばかりの新しい命令セット「Armv9」に対応した、新しいデザインであることは想定される。

 ただし今回、NVIDIAはその次世代Neoverseの性能は明らかにした。それによれば、CPUコア1つあたりで、SPECrate2017_int_baseにて300を超える性能を発揮するという。具体的にCPUコアがいくつになるのかなどは明らかにしていないが、当然、CPUコアは多くのコアが実装される形になるので、マルチコア時の性能はもっと大きな数字になることが想定される。

 なお、公開されたGraceのダイ写真を見る限りは、CPUダイはモノリシックダイで、AMDのEPYCなどで採用されているようなチップレットや、MCMと呼ばれる1つのパッケージの中に複数のダイが実装される形にはなっていないようだ。

NVIDIA Graceの概要(出典:NVIDIA)

 NVIDIAによれば、Graceの開発ターゲットは、CPUとメインメモリが、GPUやGPUメモリに比べて帯域幅が十分ではないことを克服することにあるという。というのも、現状ではCPUおよびCPUに接続されているメインメモリとGPUを接続するインターコネクトは、メモリやGPUと比較して低速なPCI Expressになるので、そこに引っ張られてしまい、GPUがメモリにアクセスするのに十分な帯域幅が確保されない現状がある。

現在のx86 CPUとGPUは、プロセッサに比べると遅いPCI Expressで接続されているため、CPUに接続されているメインメモリからGPUへの帯域幅は十分ではない(出典:NVIDIA)

 そこでGraceでは、NVIDIAのGPUがサポートしている高速なインターコネクトであるNVLinkに対応し、さらにNVLinkの帯域幅をCPUとGPUで600GB/秒、さらにキャッシュコヒーレント機能を有効にした場合には900GB/秒という帯域幅を実現する。

 また、CPUのメモリコントローラはLPDDR5に対応しており、メモリ帯域幅は500GB/秒を実現する。それにより、GPUとCPUが4つずつ搭載されているシステムの場合、メモリからGPUへの帯域幅は2000GB/秒となり、GPUがメインメモリにアクセスすることがボトルネックにならず、本来の性能を発揮できるようになる。

 NVIDIAによれば、1兆パラメータという非常に複雑で巨大なAIモデルを利用すると、学習にかかる時間は、x86 CPU(AMD 第2世代EPYC×2)とNVIDIA GPU(A100×8)の組み合わせとなる現行製品のDGX A100では約1カ月となるが、Grace(×8)+NVIDIA GPU(A100 ×8)の組み合わせの場合は、わずか3日間で終わるという。性能はざっと10倍に向上するという計算になる。

8xGrace+8xA100はDGX A100(2x x86 CPU+8xA100)に比べて10倍の性能を発揮(出典:NVIDIA)

 Graceの製造委託先は現時点では未公表だが、NVIDIAによれば5nmプロセスルールで製造され、2023年に市場に投入される計画になっているとのこと。現在、Swiss National Supercomputing Centre(CSCS)やLos Alamos National Laboratory(ロスアラモス国立研究所)が、Hewlett Packard Enterprise社が製造するGraceベースのスーパーコンピュータを導入する計画で、2023年より稼働する予定になっている。

CSCSやロスアラモス国立研究所などにHPCが製造したスーパーコンピュータが2023年に稼働する(出典:NVIDIA)

Arm CPU+NVIDIA GPUがAmazon EC2インスタンスで提供開始、新DPUのBlueField-3は2022年第1四半期に投入

 2020年、世の中をあっと言わせたArm買収を発表したNVIDIAは、GraceのようなArmベースのソリューションを加速している。すでにArm CPUに対応したCUDAをリリースしており、Arm CPUを利用したディープラーニングの学習ソリューションの充実などを進めている。

 今回のGTCではAWS(Amazon Web Services)との提携が発表され、AWSが提供しているGraviton2プロセッサ(64ビットのArm Neoverseコアを利用したカスタムプロセッサ)を利用したAmazon EC2インスタンスに、NVIDIA GPUを利用したものが提供されることが明らかにされた。

 また同時に、「Arm HPC Developer Kit」と呼ばれるArm CPUに対応した開発キットも提供され、ArmベースのCPUを利用したディープラーニングの学習がより利用しやすくする。Graviton2+NVIDIA GPUのAmazon EC2インスタンスは2021年後半から提供開始される予定だ。

Arm CPU+NVIDIA GPUがAmazon EC2インスタンスで提供開始(出典:NVIDIA)

 またNVIDIAは、2020年に発表した、DPU(Data Processing Units)と呼んでいるソフトウェア定義型のSmartNIC「BlueField-2 DPU」の後継として、「BlueField-3 DPU」を発表した。

 BlueField-3ではArm CPUが16コアに強化され(BlueField-2は8コア)、ネットワークの転送速度も200Gb/秒から400Gb/秒へと引き上げられる。従来のBlueField-2 DPU向けにソフトウェア開発キットDOCAで作成したソフトウェアは、そのまま実行可能だ。

BlueField-3(提供:NVIDIA)

BlueField-3の概要(出典:NVIDIA)

NVIDIA、データセンターのソフトウェア定義型ネットワークインフラを実現する「DPU」のロードマップを公開~DPU版CUDAといえる「DOCA」を提供へ
https://cloud.watch.impress.co.jp/docs/news/1280964.html

 BlueField-3は、2022年第1四半期からの提供開始が予定されている。なお、2020年に発表されたBlueField-2は本日より一般提供が開始されている。BlueField DPUはDell Technologies、Inspur、Lenovo、Supermicroなどのシステムベンダーから提供されるとNVIDIAでは説明している。』

エヌビディアがCPU参入 アームと組みAI計算10倍速く

https://www.nikkei.com/article/DGXZQOGN09EBS0Z00C21A4000000/

『【シリコンバレー=佐藤浩実】米半導体大手のエヌビディアは12日、CPU(中央演算処理装置)に参入すると発表した。英アームの基本設計を利用し、2023年に米欧のスーパーコンピューターに搭載する。人工知能(AI)計算を10倍速くできる見通しで、米インテルの主戦場に切り込む。AIの進化を左右する「頭脳」を巡り競争が激しくなる。

12日に開いたAIイベントでCPU「Grace(グレース)」を発表した。エヌビディアのGPU(画像処理半導体)と一緒に使うと、AIを学ばせるための計算速度が最大10倍になり、1カ月かけていた計算が3日で終わるという。他社製CPUとの組み合わせでは、計算量が膨大になると処理の「詰まり」が発生して速度を上げられなかった。

エヌビディアの「グレース」

米ヒューレット・パッカードエンタープライズ(HPE)がエヌビディアのCPUを組み込んでスパコンに仕上げ、米エネルギー省のロスアラモス国立研究所とスイスの国立スーパーコンピューターセンターに納める。ともに23年の稼働予定で、新材料や気象研究などに使う。

AIの「大きさ」、1年で100倍に

GPUが主力のエヌビディアがCPUまで手掛ける背景には、AIの進化がある。例えば自然な文章を書くと話題になった言語AI「GPT-3」には、計算結果を左右する評価軸(パラメーター)の数が1750億ある。19年に発表した1世代前の「GPT-2」の117倍で、パラメーターが増えてAIが大規模になるほど必要な処理も増える。

【関連記事】
AIが「人間並み」の文章 画像、音声に次ぐ革新迫る

エヌビディアの担当幹部、パレシュ・カーリャ氏は「数年以内に100兆のパラメーターを持つAIモデルが出てくる」と指摘する。今回のCPUは「最も複雑なAI計算のボトルネックを解消するために開発した」とし、米インテルや米アドバンスト・マイクロ・デバイス(AMD)などの汎用CPUとは「直接競合しない」というのが公式な見解だ。

インテル株、4%下落

ただ、AIの活用は文章の要約や自動のコード生成、チャットボットなど様々な分野に広がっている。エヌビディアがCPUの領域に踏み出したことで、今後各社が競争する場面は増える。発表に伴い、12日の米株式市場でインテルの株価は前日終値比で4%、AMDは5%下がった。

CPUへの参入は20年9月に買収を表明したアームとの協業の深化も示す。グレースではアームが3月に刷新した新しい設計技術を採用した。エヌビディアのジェンスン・ファン最高経営責任者(CEO)は12日のイベントで「クラウドやスパコンでのアームの採用は始まったばかりだが、大きな成長のチャンスがある」と話した。両社は22年の買収成立を目指している。

一方でハイテク産業をめぐる米中対立は激しさを増しており、ソフトバンクグループからの買収が計画通り進むかは不透明だ。3月には米半導体装置大手アプライドマテリアルズによる旧日立製作所系KOKUSAI ELECTRICの買収が中国当局の承認を得られず破談になった。業界でも「アームの中立性が失われる」と反対の声が出ている。

【関連記事】
インテル超えのエヌビディア、革ジャンCEOが狙う盟主
インテル、「データの黒子」死守へ 自社ブランド構わず

半導体業界では需要見通しの誤りや天災、火事などにより、車向けを中心に需要に供給が追いつかない状態が続く。自動車各社が減産を迫られ、12日には米ホワイトハウスが供給網(サプライチェーン)の見直しについて議論する会議を開いた。こうした半導体の「量」の問題に加え、AI計算の頭脳をめぐる「質」の競争も激化している。

春割ですべての記事が読み放題
今なら2カ月無料!

春割で申し込む
https://www.nikkei.com/promotion/?ak=https%3A%2F%2Fwww.nikkei.com%2Farticle%2FDGXZQOGM11C1B011032021000000&n_cid=DSPRM1AR08_promo

無料会員に登録する
https://www.nikkei.com/r123/?ak=https%3A%2F%2Fwww.nikkei.com%2Farticle%2FDGXZQOGM010QT001022021000000&n_cid=DSPRM1AR07#free

ログインする
https://www.nikkei.com/login

GeForce RTX 3060は“ゲーマーに届く”。マイニング性能を半分に制限

※ ということで、GPUは、「ゲーマー」と「マイニングやる人」とで、取り合いになった…。

※ 「暗号資産」の「マイニング」の検証・演算やるにも、「ベクター型」の演算器である「GPU」が欲しいからな…。

※ しかも、「マイニング業者」みたいなことやってる人は、一人で何枚も「GPU」使うから、「ゲーマー」まで行き渡らない事態が生じた…。

※ それで、そういう「マイニング」に使っていることを「検知」すると、「ドライバ」側で「演算能力」を半分に制限する…、という仕組みを導入することにした…、という話しだ…。

https://pc.watch.impress.co.jp/docs/news/1307428.html

『NVIDIAは18日(現地時間)、25日に発売予定のGeForce RTX 3060において、ドライバソフトウェアでEthereum暗号通貨マイニングアルゴリズムの特定の属性を検出し、ハッシュレートおよびマイニング効率を約50%に制限するよう設計したと発表した。』

『一方でマイニング用には別途、「NVIDIA CMP(Cryptocurrency Mining Processor)」という専用の製品ラインを用意。ディスプレイ出力を省くことでエアフローを改善できるほか、ピーク電圧と周波数を抑えてマイニングの電力効率を向上させるとしている。』

『世界的に半導体不足が続いているが、とくにGPUに関しては、在宅時間の増加に伴うゲーム需要増と、仮想通貨の高騰に伴うマイニング需要増で事態は深刻化。店頭に最新ビデオカードが並んでいても、ゲーマーとマイナーがそれを取り合うことになっている。

 ゲーマーは1人1枚で十分なのに対し、マイナーは1人で複数枚購入するため、不公平だという不満の声がゲーマー側から多く上がっている。より多くのゲーマーにGeForceを届けるために、NVIDIAはこのような策を打ち出したわけだ。』