AI処理で「100万円スパコン」使ってみた GPUからの移行は手間? 対話AIベンチャーが手応え明かす

AI処理で「100万円スパコン」使ってみた GPUからの移行は手間? 対話AIベンチャーが手応え明かす
https://www.itmedia.co.jp/news/articles/2103/02/news007.html

『今、日本国内のスーパーコンピュータ事業が熱い。スパコンの性能を競う世界ランキング「TOP500」で1位(2020年11月時点)を獲った「富岳」や、省電力ランキング「Green500」で1位(20年6月時点)の「MN-3」はいずれも日本の製品だ。こうしたスパコンは大規模な物理演算などに使われるため、基本的には研究機関などが大きなプロジェクトで利用することになる。

 こう聞くと、多くの研究者やプログラマーにとっては縁遠いものと考えがちだが、最近は状況が変わってきた。スパコンの老舗メーカーであるNECが、並列計算を得意とするスパコン「SX-Aurora TSUBASA」のプロセッサ「Vector Engine」(ベクトルエンジン、VE)の単体販売を21年1月に始めたのだ。

NECの最新ベクトルプロセッサ「SX-Aurora TSUBASA Vector Engine」

 デスクトップサイズのタワー型サーバにVEを収めた小型モデルも18年から販売しているが、VE単体では価格が114万4000円(税別)とさらに低廉化。「100万円スパコン」と見出しにつけた報道もあり、注目を集めている。

 NECのSXシリーズはJAMSTEC(国立研究開発法人海洋研究開発機構)が運用するスパコン「地球シミュレータ」にも代々採用されており、21年3月に運用を始める次世代モデルはVEを5,472台搭載する予定だ。そんなVEを、大学の1研究室や中小企業が保有して自由に使える時代が来ている。

 しかし、こんな疑問もあるかもしれない。「これまでの計算環境と違うと、プログラムの移植にも手間がかかって使いこなしが難しいのではないか」──。

 すでにGPUからVEにAI処理を移行した、対話AIベンチャー ウェルヴィルの樽井俊行CTOはこう話す。「コードを修正することなくそのまま動き、計算も高速化できました」

 VEの使い勝手や有力な応用先について、樽井CTOに話を聞いた。

SX-Aurora TSUBASAに替えるだけで強化学習を高速化 コードの変更は一切なし

 ウェルヴィルは2018年に創業したAIベンチャー。樽井CTOは前職で基幹業務システム向けのソフトウェアの開発に長く携わっており、中でも自然言語処理を2010年ごろから担当していた。

ウェルヴィルの樽井俊行CTO

 創業以来、対話エンジンを主力製品としてパートナーと研究開発を進めている。特に東京大学医学部との連携が密で、工学系研究科と医学系研究科で教授を務める鄭(てい)雄一氏を顧問に迎え、自由な対話を可能にするエンジンを開発している。そのため、会社も東大医学部の研究棟内にある。

 樽井CTOがSX-Aurora TSUBASA(VEを1基搭載するエッジモデル)の応用先に選んだのは、コンテナへの荷物積み込みの最適化と、自由対話エンジンの計算全般だ。

 コンテナへの積み込みは深層強化学習(Deep Q Network)を使い、重い荷物を下に、軽い荷物を上に配置しながらできるだけ隙間なく荷物を詰め込むよう学習するプログラムをPythonで実装していた。重めのAI処理であることから、これをまずベンチマークに選んだと樽井CTOは話す。

 従来は法人向けGPUで計算を実行していたが、ハードウェアをSX-Aurora TSUBASAに変更。その結果、約1.5倍高速に計算を完了できた。

 「もともとの計算自体が数時間という単位でかかるものなので、1.5倍は相当な時間短縮になります」(樽井CTO)

荷物の積み込み最適化にSX-Aurora TSUBASAを利用したら学習速度が1.5倍に

 移植の際、プログラムのコードは一切変更しなかった。プログラムでは機械学習フレームワークの「TensorFlow」を利用していたが、NECがSX-Aurora TSUBASAでもこれらを使える環境を用意。

(参考:https://github.com/sx-aurora-dev/tensorflow)

 もともとNECのSXシリーズはSX-Aurora TSUBASA世代になってからLinux OS上での運用が可能になったため、GPUなどを使う従来の開発環境とは互換性が高い。こうした背景が、プログラムの修正なしの移植を可能としている。

 「GPUを使う際とは違う何かをする必要は全くありませんでした。例えば機械学習の入門書通りにプログラムを書いたとしても、そのままで動くと思います」(同)

ベクトルエンジンはなぜ速い?

 GPUもVEも、並列計算が得意な演算ユニットではある。GPUは画像処理の文脈から、今になっては一般的な並列計算にも利用されるようになっているが、VEは大規模な流体計算や気象の計算といった並列計算に以前から使われてきた。

 ベクトルエンジン自体も「ベクトル型」という命令方式で、複数の演算を一度に行えるよう作られている。メモリ帯域幅が大きいのも特長だ。最大1.53TB/sというスペックはPCIeボードサイズの他社の現行のフラグシップアクセラレータと比べても高速で、「世界トップクラスのアクセス性能」(NEC)としている。高い演算性能があっても、メモリ帯域が狭いとメモリと演算ユニット間のデータ転送でボトルネックになりうる。ベクトルエンジンを搭載するSX-Aurora TSUBASAは演算性能とメモリ帯域幅を両立することで効率的な計算を実現しているといえる。

 現在のAIが発展している要因の一つには「計算リソースの充実」が挙げられる。AIの計算は基本的に複数のノード(ニューロン)を同時に更新するため、並列計算が得意なSX-Aurora TSUBASAはAI処理にも向いているというわけだ。

自然言語処理もSX-Aurora TSUBASAで高速に 非接触の接客や自動問診システムへ応用目指す

 貨物積み込みの最適化でSX-Aurora TSUBASAの感触を得た樽井CTOが次に試したのは、同社のメイン技術である自然言語処理への適用だ。

 自然言語処理は強化学習ほど並列計算が多く出てくるわけではない。また、バッチ的に一度に数時間かかる重い処理とは異なり、ウェルヴィルの開発する言語モデルはコンマ数秒で応答するリアルタイムのシステムだ。

 そんなリアルタイムの言語処理システムを丸ごとSX-Aurora TSUBASAで実行したところ、AI的な処理ばかりではないにもかかわらず約8%の高速化を実現できたという。

 「処理全体で8%の高速化なので、特に並列計算が多い意味解析の部分に効いているのだと思います」と樽井CTOは話す。

 ウェルヴィルはSX-Aurora TSUBASAを活用して高速化した言語処理システムを、非接触の接客システムや事前問診システムなどに応用していきたい考えだ。

ウェルヴィルの業務向け対話エンジンを積んだ「AIアバターレジ」

 同社は業務向けの対話エンジンを積んだ製品としては「AIアバターレジ」をリリースしている。これは画面上に映ったアバターが接客し、画面に商品を映しながら客の要望を聞くことで注文を受け付けるシステムだ。開発時期の関係から本製品はGPUで計算しているものの、今後業務向け対話エンジンを実装するに当たってはSX-Aurora TSUBASAを使っていくとしている。

ベクトルエンジンの有効な応用先は?

 対話エンジンがメインの同社だが、東大とはさまざまなプロジェクトを共同研究している。中でも「汎用人工知能を作るプロジェクト」ではベクトル型に向いていると考える処理が多く出てくるため、SX-Aurora TSUBASAを使えば高速化できそうだと樽井CTOはみている。

 「ここまで使ってみた感覚では、ど真ん中で有効なのはやはり強化学習ですね」と樽井CTO。具体的な適用先には貨物積み込みのような最適化計算や、自動運転などが挙げられるという。

 もっとも、特に深層強化学習に関していえば人間を破った囲碁AI「AlphaGo」などにも使われている技術であることから、ポテンシャルは非常に高いといえる。どう使いこなすかは各企業や研究者のアイデア次第だろう。

SX-Aurora TSUBASA使いとしては“異端児” NEC「こんな例が出てくるのが共創の意義」

 NECによれば、SX-Aurora TSUBASA Vector Engine(ベクトルエンジン)はすでに1万7000枚が売れており、さまざまな研究機関や大学施設、企業などに導入されているという。多くは、JAMSTECの地球シミュレータのように流体や気象などの数値シミュレーションに使われているため、いわば「重い処理の高速化」に役立てられている。

NECの浅田さん(AIプラットフォーム事業部マネージャー)

 そんな中、リアルタイムに応答する言語処理システムにVEを使ったウェルヴィルはある意味“異端児”といえる。

 「われわれも想像していなかった、こんな応用例が出てくるのがまさにパートナーと共創する意義なのです」と、NECの浅田さん(AIプラットフォーム事業部マネージャー)は話す。

パートナーとの共創で、NECだけではできない領域もカバーしていく

 樽井CTOはSX-Aurora TSUBASAを使う中でこんな要望も持ったという。「クラウドサービスでの提供はありませんか?」

 「サービスによっては物理的に置く場所に制限もあります。ホスティングサービス、もしくはクラウドコンピューティングサービスなどが出てくると、さらに柔軟に使えそうです」(樽井CTO)

 これについては「間もなくご提供できます」と浅田さん。現在パートナー企業とともにホスティングサービスを準備中だ。これも、SX-Aurora TSUBASA Vector Engine単体やエッジモデルなど、SX-Aurora TSUBASAを柔軟な形でパートナーに提供できるようになったからこその取り組みだ。

 SX-Aurora TSUBASA Vector Engine単体の販売が20年11月に始まり、クラウドサービス開始も間近に迫るSX-Aurora TSUBASA。樽井CTOのような使い手の“異端児”は、これからどんどん増えそうだ。』

NEC SX-Aurora TSUBASA

NEC SX-Aurora TSUBASA
https://ja.wikipedia.org/wiki/NEC_SX-Aurora_TSUBASA

『SX-Aurora TSUBASAはNECのベクトル型スーパーコンピュータシリーズであるSXシリーズの、2017年に発売されたモデルグループである[1]。SX-ACE(SX-10相当)まではいずれも専用設計のインタフェースで、バックプレーンにベクトルノードや管理ノードなどが接続されていたが、このモデルグループでは「ベクトルエンジン」をPCI Expressカードとし、管理側の「ベクトルホスト」を同社の「スカラ型HPC」などと呼んでいるx86クラスタ機系統のものとしている[2][3]。このため最小構成(ベクトルカード1枚のA100)では、タワー筐体のデスクサイドPC状の空冷機となっている。また、2020年には水冷式とすることで高密度化・高性能化した機種を発表、最上位機種を置き換えた。[4]

ベクトルエンジンのベクトルプロセッサは、カード1枚に1個のプロセッサモジュールが搭載されている。1個のプロセッサモジュールには、1枚のプロセッサチップと、6枚のHBM2メモリチップが搭載されている[5]。1枚のプロセッサチップに、ベクトル演算プロセッサが8コア搭載されている。プロセッサモジュールは、1.6GHz のクロック周波数で動作し、コアあたり 307 GFLOPSで、メモリ帯域は 150GB/s である。以上の諸元により、1枚のカードで 2.45 TFLOPS の理論性能と 1.2TB/s のメモリ帯域となっている[6]。

OSについても前述のシステム構成の変更にともない、SUPER-UXからカスタム版Linux系へと変更された(OSが関わるのは管理側であり、計算システムとしてはあまり関係は無い)。システムソフトウェアは従来と(あるいは競合する他のHPCシステムと)同様に、ベクトルコンパイラや分散並列化ソフト、分散・並列ファイルシステム、ジョブスケジューラなど。

ローエンドからハイエンドの順で展開を述べると、タワー筐体で空冷の A100システム、ラックマウントの A300シリーズ(2, 4, 8プロセッサ)、そして64プロセッサ以上は従来と同様なラック型で液冷の計算センター用となり、1ラックあたりの理論性能は 156TFLOPS であるとしている。

Supercomputing 2019 にてアップグレードが発表された[7]。最上位のベクトルエンジン Type 10AE では動作周波数 1.584GHz 、コアあたり 304GFLOPS で、8コアのベクトルプロセッサにつき、倍精度の理論演算性能 2.43TFLOPS 、メモリ帯域1.35TB/s となっている[8]。

主な採用事例

2019年6月、ドイツ気象庁の気象予測システム[9]、高エネルギー加速器研究機構と国立環境研究所に採用されたと発表[10]。

2020年9月、当コンピュータを採用した次世代地球シミュレータを受注したと発表[11]。2021年3月より実運用開始[12][13]。

ハイライト – 2022 年 11 月TOP500は今回で60回目。

ハイライト – 2022 年 11 月
TOP500は今回で60回目。
https://www.top500.org/lists/top500/2022/11/highs/

 ※ Thinkに書かれていたリンクを辿って、飛んだ…。

 ※ 注目したのは、コレ…。

 ※ 使われている「プロセッサ(CPU)」の種類の一覧だ…。

 ※ 「NEC Vector Engine」ってのに、注目した…。

 ※ ノーマークだったんで、調べた…。

『(※ 翻訳は、Google翻訳。)

米国テネシー州オークリッジ国立研究所の Frontier システムは、依然として TOP500 で第 1 位のシステムであり、1 エクサフロップ/秒を超える HPL 性能が報告されている唯一のシステムです。Frontier は 6 月の上場で、1.102 エクサフロップ/秒の HPL スコアでポールポジションを米国に戻しました。

1.102 EFlop/s の HPL スコアで、オークリッジ国立研究所 (ORNL) の Frontier マシンは、2022 年 6 月のリストで到達したスコアを改善しませんでした。とはいえ、2 位の勝者が獲得した HPL スコアを Frontier がほぼ 3 倍にしたことは、依然としてコンピューター サイエンスにとって大きな勝利です。その上、Frontier は、混合精度計算のパフォーマンスを測定する HPL-MxP ベンチマークで 7.94 EFlop/s のスコアを示しました。Frontier は HPE Cray EX235a アーキテクチャに基づいており、AMD EPYC 64C 2GHz プロセッサに依存しています。このシステムには 8,730,112 個のコアがあり、電力効率は 52.23 ギガフロップス/ワットです。また、データ転送にはギガビット イーサネットを使用します。

トップの座は、日本の神戸にある理化学研究所計算科学研究センター (R-CCS) の富岳システムによって、2 年連続で保持されていました。442 Pflop/s の HPL ベンチマーク スコアで、Fugaku は現在 2 位にランクされています。

フィンランドの EuroHPC/CSC の LUMI システムは、昨年 6 月にリストの 3 位に入りました。再び 3 位にランクインしましたが、システムのアップグレードによりサイズが 2 倍になりました。HPL スコアが 309 Pflop/s に向上したことで、ヨーロッパ最大のシステムであり続けています。

リストのトップを飾った唯一の新しいマシンは、イタリアのボローニャで開催された EuroHPC/CINECA の No. 4 Leonardo システムでした。このマシンは、1,463,616 コアで .174 EFlop/s の HPL スコアを達成しました。

Top10 のシステムの概要を以下に示します。

フロンティアはTOP500でNo.1のシステムです。この HPE Cray EX システムは、1 エクサフロップ/秒を超える性能を持つ最初の米国のシステムです。米国テネシー州のオークリッジ国立研究所 (ORNL) に設置され、エネルギー省 (DOE) 向けに運用されています。現在、8,730,112 コアを使用して 1.102 エクサフロップ/秒を達成しています。新しい HPE Cray EX アーキテクチャは、HPC および AI 向けに最適化された第 3 世代 AMD EPYC™ CPU と、AMD Instinct™ 250X アクセラレーター、および Slingshot-10 相互接続を組み合わせています。

富岳は現在、日本の神戸にある理化学研究所計算科学研究センター (R-CCS) に 2 番目のシステムが設置されています。7,630,848 個のコアがあり、442 Pflop/s の HPL ベンチマーク スコアを達成できました。

アップグレードされた LUMI システム、フィンランドの CSC の EuroHPC センターに設置された別の HPE Cray EX システムは、309.1 Pflop/s のパフォーマンスで第 3 位です。European High-Performance Computing Joint Undertaking (EuroHPC JU) は、ヨーロッパのリソースをプールして、ビッグデータを処理するための最高級のエクサスケール スーパーコンピューターを開発しています。汎ヨーロッパのプレ エクサスケール スーパーコンピューターの 1 つである LUMI は、フィンランドのカヤーニにある CSC のデータ センターにあります。

新しい No. 4 システム Leonardo は、イタリアの CINECA にある別の EuroHPC サイトに設置されています。これは、メイン プロセッサとして Xeon Platinum 8358 32C 2.6GHz、アクセラレータとして NVIDIA A100 SXM4 40 GB、相互接続としてクアッドレール NVIDIA HDR100 Infiniband を備えた Atos BullSequana XH2000 システムです。174.7 Pflop/s の Linpack 性能を達成しました。

米国テネシー州のオークリッジ国立研究所 (ORNL) で IBM が構築したシステムである Summit は、HPL ベンチマークで 148.8 Pflop/s のパフォーマンスを達成し、現在世界第 5 位にランクされています。 TOP500リスト。Summit には 4,356 のノードがあり、それぞれに 22 コアの Power9 CPU が 2 つと、それぞれ 80 のストリーミング マルチプロセッサ (SM) を備えた 6 つの NVIDIA Tesla V100 GPU が収容されています。ノードは、Mellanox デュアルレール EDR InfiniBand ネットワークで相互にリンクされています。

ランク サイト システム コア Rmax (TFlop/秒) Rpeak (TFlop/s) 電力 (キロワット)
1 DOE/SC/オークリッジ国立研究所
米国 フロンティア- HPE Cray EX235a、AMD Optimized 第 3 世代 EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11
HPE 8,730,112 1,102.00 1,685.65 21,100
2
理化学研究所 計算科学研究センター スーパーコンピュータ富岳 – スーパーコンピュータ富岳、A64FX 48C 2.2GHz、Tofu インターコネクト D
富士通 7,630,848 442.01 537.21 29,899
3 EuroHPC/CSC
フィンランド LUMI – HPE Cray EX235a、AMD 最適化第 3 世代 EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11
HPE 2,220,288 309.10 428.70 6,016
4 EuroHPC/CINECA
イタリア Leonardo – BullSequana XH2000、Xeon Platinum 8358 32C 2.6GHz、NVIDIA A100 SXM4 40 GB、クアッドレール NVIDIA HDR100 Infiniband
Atos 1,463,616 174.70 255.75 5,610
5 DOE/SC/オークリッジ国立研究所
米国 Summit – IBM Power System AC922、IBM POWER9 22C 3.07GHz、NVIDIA Volta GV100、デュアルレール Mellanox EDR Infiniband
IBM 2,414,592 148.60 200.79 10,096
6 DOE/NNSA/LLNL
米国 Sierra – IBM Power System AC922、IBM POWER9 22C 3.1GHz、NVIDIA Volta GV100、デュアルレール Mellanox EDR Infiniband
IBM / NVIDIA / Mellanox 1,572,480 94.64 125.71 7,438
7
中国 無錫の国家スーパーコンピューティングセンター Sunway TaihuLight – Sunway MPP、Sunway SW26010 260C 1.45GHz、Sunway
NRCPC 10,649,600 93.01 125.44 15,371
8 DOE/SC/LBNL/NERSC
米国 Perlmutter – HPE Cray EX235n、AMD EPYC 7763 64C 2.45GHz、NVIDIA A100 SXM4 40 GB、Slingshot-10
HPE 761,856 70.87 93.75 2,589
9 エヌビディア コーポレーション
米国 Selene – NVIDIA DGX A100、AMD EPYC 7742 64C 2.25GHz、NVIDIA A100、Mellanox HDR Infiniband
Nvidia 555,520 63.46 79.22 2,646
10
中国 広州にあるナショナル スーパー コンピューター センター Tianhe-2A – TH-IVB-FEP クラスター、Intel Xeon E5-2692v2 12C 2.2GHz、TH Express-2、Matrix-2000
NUDT 4,981,760 61.44 100.68 18,482
米国カリフォルニア州ローレンス リバモア国立研究所のシステムである Sierra は、第 5 位です。そのアーキテクチャは、第 4 位の Systems Summit と非常によく似ています。2 つの Power9 CPU と 4 つの NVIDIA Tesla V100 GPU を備えた 4,320 ノードで構築されています。Sierra は 94.6 Pflop/s を達成しました。
Sunway TaihuLight は、中国の National Research Center of Parallel Computer Engineering & Technology (NRCPC) によって開発され、中国の江蘇省無錫にある National Supercomputing Center にインストールされたシステムで、93 Pflop/s で第 6 位にリストされています。
7 位の Perlmutter は、HPE Cray “Shasta” プラットフォームに基づいており、AMD EPYC ベースのノードと 1536 の NVIDIA A100 アクセラレーション ノードを備えた異種システムです。Perlmutter は 64.6 Pflop/s を達成
現在第 8 位の Selene は、米国の NVIDIA 社内でインストールされた NVIDIA DGX A100 SuperPOD です。このシステムは AMD EPYC プロセッサに基づいており、加速には NVIDIA A100 を、ネットワークには Mellanox HDR InfiniBand を使用し、63.4 Pflop/s を達成しました。
Tianhe-2A (Milky Way-2A) は、中国の国立防衛技術大学 (NUDT) によって開発され、中国の広州にある国立スーパーコンピューター センターに配備されたシステムで、現在 61.4 Pflop/s で第 9 のシステムとしてリストされています。
リストのハイライト
リストにある合計 179 のシステムが、アクセラレータ/コプロセッサ テクノロジを使用しており、6 か月前の 169 から増加しています。これらのうち 84 は NVIDIA Volta チップを使用し、64 は NVIDIA Ampere を使用し、10 のシステムは 17 を使用しています。

     カウント    システム シェア (%)    Rmax (TFlops)   Rpeak (TFlops)  コア

1 NVIDIA テスラ V100 68 13.6 226,796 443,631 4,688,680
2 NVIDIA A100 22 4.4 264,775 401,042 2,606,176
3 NVIDIA A100 SXM4 40GB 18 3.6 345,414 490,177 3,182,344
4 NVIDIA テスラ V100 SXM2 11 2.2 90,370 180,163 2,031,440
5 NVIDIA A100 80GB 10 2 123,156 163,208 1,044,800
6 NVIDIA A100 40GB 10 2 62,683 101,052 660,740
7 AMD Instinct MI250X 9 1.8 1,525,179 2,261,385 11,713,152
8 NVIDIA テスラ P100 6 1.2 44,731 65,634 905,280
9 NVIDIA A100 SXM4 80GB 4 0.8 25,696 27,245 206,112
10 NVIDIA ボルタ GV100 4 0.8 269,439 362,565 4,408,096
11 NVIDIA テスラ K40 2 0.4 7,154 12,264 145,600
12 NVIDIA 2050 1 0.2 2,566 4,701 186,368
13 NVIDIA テスラ K40m 1 0.2 2,478 4,947 64,384
14 NVIDIA テスラ K40/インテル Xeon Phi 7120P 1 0.2 3,126 5,610 152,692
15 NVIDIA テスラ P100 NVLink 1 0.2 8,125 12,127 135,828
16 NVIDIA H100 80GB PCIe 1 0.2 2,038 5,417 5,920
17 優先ネットワーク MN-Core 1 0.2 2,180 3,348 1,664
18 NVIDIA ボルタ V100 1 0.2 21,640 29,354 347,776
19 NVIDIA テスラ K80 1 0.2 2,592 3,799 66,000
20 インテル Xeon Phi 31S1P 1 0.2 2,071 3,075 174,720
21 ディープ コンピューティング プロセッサ 1 0.2 4,325 6,134 163,840
22 インテル Xeon Phi 5110P 1 0.2 2,539 3,388 194,616
23 NVIDIA テスラ K20x 1 0.2 3,188 4,605 72,000
24 マトリックス-2000 1 0.2 61,445 100,679 4,981,760
Intel は、6 か月前の 77.60% から減少して、TOP500 システムの最大のシェア (75.80%) にプロセッサを提供し続けています。現在のリストにあるシステムの 101 (20.20 %) が AMD プロセッサを使用しており、6 か月前の 18.60 % から増加しています。

リストへのエントリ レベルは 、Linpack ベンチマークで1.73 Pflop/s マークまで上昇しました。

最新のリストの最後のシステムは、以前の TOP500 の 460 位にリストされていました。

すべての 500 の合計パフォーマンスは、6 か月前の 4.40エクサフロップ/秒 (Eflop/秒) から現在は4.86エクサフロップ/秒 (Eflop/秒) で、エクサフロップの壁を超えました。

TOP100 のエントリ ポイントは 5.78 Pflop/s に増加しました。

TOP500 の平均同時実行レベルは、システムあたり189,586コアで、 6 か月前 の182,864から増加しています。

一般的な傾向

国/地域別のインストール:
カウント システム シェア (%) Rmax (TFlops) Rpeak (TFlops) コア
1 中国 162 32.4 514,492 1,132,071 28,865,036
2 アメリカ 127 25.4 2,122,791 3,216,124 27,858,532
3 ドイツ 34 6.8 219,254 331,231 4,030,068
4 日本 31 6.2 624,251 815,667 11,948,484
5 フランス 24 4.8 174,855 251,167 4,052,696
6 イギリス 15 3 64,079 92,564 1,971,888
7 カナダ 10 2 41,208 71,912 845,984
8 韓国 8 1.6 88,683 128,264 1,551,012
9 オランダ 8 1.6 33,959 56,740 547,728
10 ブラジル 8 1.6 46,729 88,176 775,232
11 イタリア 7 1.4 253,229 370,263 2,911,152
12 ロシア 7 1.4 73,715 101,737 741,328
13 サウジアラビア 6 1.2 55,253 98,982 1,798,260
14 スウェーデン 6 1.2 22,501 32,727 355,648
15 オーストラリア 5 1 42,768 60,177 532,416
16 アイルランド 5 1 13,364 26,321 335,360
17 スイス 4 0.8 28,564 38,600 650,260
18 シンガポール 3 0.6 9,038 15,786 234,112
19 ノルウェー 3 0.6 10,225 17,031 312,832
20 インド 3 0.6 10,953 12,082 244,488
21 フィンランド 3 0.6 320,788 443,391 2,584,576
22 ポーランド 3 0.6 10,923 17,099 148,800
23 台湾 2 0.4 11,298 19,563 220,752
24 チェコ 2 0.4 9,589 12,914 163,584
25 ルクセンブルク 2 0.4 12,807 18,291 172,544
26 アラブ首長国連邦 2 0.4 9,014 12,165 142,368
27 オーストリア 2 0.4 5,038 6,809 133,152
28 スロベニア 2 0.4 6,918 10,047 156,480
29 スペイン 1 0.2 6,471 10,296 153,216
30 モロッコ 1 0.2 3,158 5,015 71,232
31 ブルガリア 1 0.2 4,519 5,942 144,384
32 タイ 1 0.2 8,146 13,773 87,296
33 ベルギー 1 0.2 2,717 3,094 23,200

HPC メーカー:
カウント システム シェア (%) Rmax (TFlops) Rpeak (TFlops) コア
1 レノボ 160 32 474,002 970,535 14,045,920
2 HPE 101 20.2 2,166,385 3,183,197 27,296,656
3 インスパー 50 10 107,308 264,133 2,481,840
4 アトス 43 8.6 448,918 684,914 7,643,504
5 スゴン 34 6.8 69,322 188,395 2,891,060
6 DELL EMC 18 3.6 112,664 185,685 2,553,828
7 NVIDIA 14 2.8 147,754 186,955 1,465,472
8 NEC 12 2.4 54,659 78,371 728,008
9 富士通 10 2 529,686 676,128 9,200,608
10 メグウェア 6 1.2 16,239 24,491 320,200
11 IBM 6 1.2 201,915 273,679 3,292,832
12 ペンギンコンピューティング株式会社 6 1.2 17,353 24,219 408,792
13 マイクロソフト アズール 5 1 96,410 137,760 883,200
14 アクション 3 0.6 7,994 63,814 178,368
15 ヌート 3 0.6 66,082 108,454 5,342,848
16 株式会社クレイ/日立 2 0.4 11,461 18,250 271,584
17 xフュージョン 2 0.4 3,671 6,965 84,480
18 液体 2 0.4 5,393 7,518 102,144
19 IBM / NVIDIA / メラノックス 2 0.4 112,840 148,759 1,860,768
20 Quanta Computer / 台湾固定ネットワーク / ASUS Cloud 2 0.4 11,298 19,563 220,752
21 ヤンデックス、エヌビディア 2 0.4 37,550 50,051 328,352
22 華為技術有限公司 2 0.4 5,872 9,390 101,184
23 ClusterVision / ハンマー 1 0.2 2,969 4,335 64,512
24 富士通 / レノボ 1 0.2 9,264 15,142 204,032
25 優先ネットワーク 1 0.2 2,180 3,348 1,664
26 スーパーマイクロ 1 0.2 3,700 6,024 85,568
27 アマゾン ウェブ サービス 1 0.2 9,950 15,107 172,692
28 レノボ/IBM 1 0.2 2,814 3,578 86,016
29 NEC/メグウェア 1 0.2 1,968人 2,801 49,432
30 NVIDIA、インスパー 1 0.2 12,810 20,029 130,944
31 PEZY Computing / Exascaler Inc. 1 0.2 1,952人 2,932 1,151,360
32 インテル 1 0.2 5,613 9,794 127,520
33 NRCPC 1 0.2 93,015 125,436 10,649,600
34 アティパ・テクノロジー 1 0.2 2,539 3,388 194,616
35 自作 1 0.2 3,307 4,897 60,512
36 フォーマットsp。z oo 1 0.2 5,051 7,709 47,616

相互接続技術:
カウント システム シェア (%) Rmax (TFlops) Rpeak (TFlops) コア
1 ギガビット イーサネット 233 46.6 2,249,209 3,749,741 32,588,832
2 インフィニバンド 194 38.8 1,633,260 2,452,071 28,025,796
3 オムニパス 36 7.2 156,748 243,120 3,597,140
4 カスタム相互接続 32 6.4 335,259 500,646 22,008,172
5 独自のネットワーク 5 1 489,907 595,115 8,572,928
プロセッサー・テクノロジー:
カウント システム シェア (%) Rmax (TFlops) Rpeak (TFlops)

コア
1 インテル カスケード レイク 150 30 504,558 978,618 11,809,284
2 インテル スカイレイク 149 29.8 445,006 918,257 11,226,804
3 AMD Zen-2 (ローマ) 57 11.4 565,738 779,012 10,846,768
4 AMD Zen-3 (ミラノ) 43 8.6 1,804,705 2,657,099 16,159,200
5 インテル ブロードウェル 26 5.2 84,679 114,615 2,796,860
6 インテル アイス レイク 22 4.4 289,874 435,208 3,225,612
7 インテル ハスウェル 15 3 62,895 165,478 4,190,588
8 インテル Xeon Phi 8 1.6 82,557 158,228 3,583,220
9 力 7 1.4 311,567 417,833 5,081,600
10 インテル IvyBridge 7 1.4 82,953 132,610 5,841,172
11 NECベクトルエンジン 6 1.2 36,488 48,795 161,216
12 富士通アーム 4 0.8 487,341 590,414 8,386,560
13 AMD Zen (ナポリ) 1 0.2 1,746 2,568 145,920
14 シェンウェイ 1 0.2 93,015 125,436 10,649,600
15 ThunderX2 1 0.2 1,833 2,298 143,640
16 X86_64 1 0.2 4,325 6,134 163,840
17 インテル SandyBridge 1 0.2 2,539 3,388 194,616

グリーン500
Green500 プロジェクトのデータ収集とキュレーションは、TOP500 プロジェクトに統合されました。これにより、http://top500.org/submitの単一の Web ページからすべてのデータを送信できます。
ランク TOP500ランク システム コア Rmax (TFlop/秒) 電力 (キロワット) エネルギー効率 (GFlops/ワット)
1 405 Henri – Lenovo ThinkSystem SR670 V2, Intel Xeon Platinum 8362 2800Mhz (32C), NVIDIA H100 80GB PCIe, Infiniband HDR , Lenovo
Flatiron Institute
米国 5,920 2.04 31 65.091
2 32 Frontier TDS – HPE Cray EX235a、AMD Optimized 3rd Generation EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、HPE
DOE/SC/Oak Ridge National Laboratory
米国 120,832 19.20 309 62.684
3 11 Adastra – HPE Cray EX235a、AMD Optimized 3rd Generation EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、HPE
Grand Equipement National de Calcul Intensif – Centre Informatique National de l’Enseignement Suprieur (GENCI-CINES)
France 319,072 46.10 921 58.021
4 15 Setonix – GPU – HPE Cray EX235a、AMD Optimized 3rd Generation EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、HPE
Pawsey Supercomputing Centre、ケンジントン、西オーストラリア
オーストラリア 181,248 27.16 477 56.983
5 68 Dardel GPU – HPE Cray EX235a、AMD Optimized 3rd Generation EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、HPE
KTH – Royal Institute of Technology
Sweden 52,864 8.26 146 56.491
6 1 フロンティア- HPE Cray EX235a、AMD Optimized 3rd Generation EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、HPE
DOE/SC/Oak Ridge National Laboratory
米国 8,730,112 1,102.00 21,100 52.227
7 3 LUMI – HPE Cray EX235a、AMD Optimized 第 3 世代 EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、HPE
EuroHPC/CSC
フィンランド 2,220,288 309.10 6,016 51.382
8 159 ATOS THX.AB – BullSequana XH2000、Xeon Platinum 8358 32C 2.6GHz、NVIDIA A100 SXM4 40 GB、クアッドレール NVIDIA HDR100 Infiniband 、Atos
Atos
France 25,056 3.50 86 41.411
9 359 MN-3 – MN-Core サーバー、Xeon Platinum 8260M 24C 2.4GHz、Preferred Networks MN-Core、MN-Core DirectConnect 、Preferred Networks
Preferred Networks
Japan 1,664 2.18 53 40.901
10 331 シャンポリオン- Apollo 6500、AMD EPYC 7763 64C 2.45GHz、NVIDIA A100 SXM4 80 GB、Mellanox HDR Infiniband 、HPE
Hewlett Packard Enterprise
France 19,840 2.32 60 38.555

GREEN500 の第 1 位を主張するシステムは、米国の Flatiron Institute のHenriです。合計 5920 個のコアと 2.04 PFlop/s の HPL ベンチマークを使用。Henri は、Intel Xeon Platinum と Nvidia H100 を搭載した Lenovo ThinkSystem SR670 です。

2位は米国ORNLのFrontier Test & Development System (TDS)。合計 120,832 個のコアと 19.2 PFlop/s の HPL ベンチマークを備えた Frontier TDS マシンは、基本的に実際の Frontier システムと同一の 1 つのラックです。

3位はアダストラシステムが獲得した。AMD EPYC および AMD Instinct MI250X を搭載した HPE Cray EX235a システム。

HPCGの結果
Top500 リストには、高性能共役勾配 (HPCG) ベンチマークの結果が含まれるようになりました。

ランク TOP500ランク システム コア Rmax (TFlop/秒) HPCG (TFlop/秒)
1 2 スーパーコンピュータ富岳 – スーパーコンピュータ富岳、A64FX 48C 2.2GHz、TofuインターコネクトD 、 理化学研究所
計算科学研究センター
7,630,848 442.01 16004.50
2 1 フロンティア- HPE Cray EX235a、AMD Optimized 3rd Generation EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、
DOE/SC/Oak Ridge National Laboratory
米国 8,730,112 1,102.00 14054.00
3 3 LUMI – HPE Cray EX235a、AMD Optimized 第 3 世代 EPYC 64C 2GHz、AMD Instinct MI250X、Slingshot-11 、
EuroHPC/CSC
フィンランド 2,220,288 309.10 3408.47
4 5 Summit – IBM Power System AC922、IBM POWER9 22C 3.07GHz、NVIDIA Volta GV100、デュアルレール Mellanox EDR Infiniband 、
DOE/SC/Oak Ridge National Laboratory
米国 2,414,592 148.60 2925.75
5 4 Leonardo – BullSequana XH2000、Xeon Platinum 8358 32C 2.6GHz、NVIDIA A100 SXM4 40 GB、クアッドレール NVIDIA HDR100 Infiniband 、
EuroHPC/CINECA
イタリア 1,463,616 174.70 2566.75
6 8 Perlmutter – HPE Cray EX235n、AMD EPYC 7763 64C 2.45GHz、NVIDIA A100 SXM4 40 GB、Slingshot-10 、
DOE/SC/LBNL/NERSC
米国 761,856 70.87 1905.44
7 6 Sierra – IBM Power System AC922、IBM POWER9 22C 3.1GHz、NVIDIA Volta GV100、デュアルレール Mellanox EDR Infiniband 、
DOE/NNSA/LLNL
米国 1,572,480 94.64 1795.67
8 9 Selene – NVIDIA DGX A100、AMD EPYC 7742 64C 2.25GHz、NVIDIA A100、Mellanox HDR Infiniband 、
NVIDIA Corporation
米国 555,520 63.46 1622.51
9 12 JUWELS ブースター モジュール- Bull Sequana XH2000、AMD EPYC 7402 24C 2.8GHz、NVIDIA A100、Mellanox HDR InfiniBand/ParTec ParaStation ClusterSuite 、
Forschungszentrum Juelich (FZJ)
ドイツ 449,280 44.12 1275.36
10 21 Dammam-7 – Cray CS-Storm、Xeon Gold 6248 20C 2.5GHz、NVIDIA Tesla V100 SXM2、InfiniBand HDR 100 、
Saudi Aramco
サウジアラビア 672,520 22.40 881.40
スーパーコンピュータ富岳は、16 PFlop/s で HPCG ベンチマークのリーダーを維持しています。

ORNL の DOE システム Frontier は、14.05 HPCG-Pflop/s で 2 番目の位置を占めています。

3 番目の位置は、3.40 HPCG ペタフロップスのアップグレードされた LUMI システムによって獲得されました。

混合精度計算のパフォーマンスを測定する HPL-MxP (旧称 HPL-AI) ベンチマークで、Frontier は既に 6.86 エクサフロップスを実証しました。HPL-MxP ベンチマークは、混合精度計算の使用を強調することを目的としています。従来の HPC は 64 ビット浮動小数点計算を使用します。今日、32 ビット、16 ビット、さらには 8 ビットなど、さまざまなレベルの浮動小数点精度を備えたハードウェアが見られます。HPL-MxP ベンチマークは、計算中に混合精度を使用することで、はるかに高いパフォーマンスが可能であることを示し (HPL-MxP ベンチマークのトップ 5 を参照)、数学的手法を使用すると、比較すると混合精度手法で同じ精度を計算できることを示しています。ストレート 64 ビット精度で。

ランク

HPL-MxP

サイト

コンピューター

コア

HPL-MxP (Eflop/s)

TOP500ランク

HPL Rmax (Eflop/s)

スピードアップ

HPL 上の HPL-MxP の

1

DOE/SC/ORNL、米国

フロンティア、HPE Cray EX235a

8,730,112

7.942

1

1.1020

7.2

2

EuroHPC/CSC、フィンランド

LUMI、HPE Cray EX235a

2,174,976

2.168

3

0.3091

7.0

3

理化学研究所、日本

富岳、富士通 A64FX

7,630,848

2.000

2

0.4420

4.5

4

EuroHPC/CINECA、イタリア

レオナルド、ブル セクアナ XH2000

1,463,616

1.842

4

0.1682

11.0

5

DOE/SC/ORNL、米国

サミット、IBM AC922 POWER9

2,414,592

1.411

5

0.1486

9.5

TOP500リストについて
今日の TOP500 リストとなったものの最初のバージョンは、1993 年 6 月にドイツで開催された小規模な会議の演習として始まりました。好奇心から、著者は 1993 年 11 月にリストを再訪して、状況がどのように変化したかを確認することにしました。その頃、彼らは何かに夢中になっている可能性があることに気付き、リストの編集を続けることに決めました。これは現在、非常に期待され、注目され、議論の多い年 2 回のイベントです。

TOP500
現在のリスト
25周年記念
ニュースレターのサインアップ 』

米スパコン首位維持、「富岳」2位 中国も多額投資

米スパコン首位維持、「富岳」2位 中国も多額投資
https://www.nikkei.com/article/DGXZQOUC133N30T11C22A1000000/

『スーパーコンピューターの計算速度を競う世界ランキングで、米国の「フロンティア」が前回の5月に続き首位だった。理化学研究所と富士通が開発した「富岳(ふがく)」は2位を維持した。米中を筆頭に各国は多額の資金を投入して開発を進めており、国内勢の技術力低下は経済安全保障上のリスクにもなりかねない。
米フロンティアが首位を維持した

専門家の国際会議が14日、スパコンのランキングを公表した。ランキングは半年ごとに更新する。米オークリッジ国立研究所が運営するフロンティアが1秒間に110京回(京は1兆の1万倍)を超す計算性能を示して2期連続の1位だった。前回のランキングで4期連続の首位から後退した富岳(計算性能は44.2京回)は2位を維持した。上位3位の顔ぶれは変わらなかった。

米国はこれまで、100京回の計算ができる「エクサ級」と呼ばれるスパコンを複数開発する計画を進めてきた。中国も過去に世界一だった「天河2号」と「神威太湖之光」の後継機を開発し、すでに富岳を上回る性能を実現したとされる。欧州もエクサ級のスパコンを含め、巨費を投じて高性能コンピューターの整備を進める。

スパコンは膨大なデータを扱う人工知能(AI)の開発などで重要性が高い。グーグルやマイクロソフトなど米テック企業は、自前のスパコンを構築してビジネスに活用する。次世代の高速計算機である量子コンピューターの実用化には一定の時間がかかるとみられるなか、民間企業を含めた導入競争が加速している。

日本も富岳の後継機開発に着手している。スパコンの研究開発に大量の資金や人材を投入する海外勢と比べて不利な状況にあるものの、足元では経済安全保障などの観点から半導体やスパコンの技術を自国で保有する重要性も高まっている。米中がリードするなか、日本がどこまで競争力を維持できるかが焦点となる。

【関連記事】

・「ポスト富岳」問われる戦略 スパコン開発で米中先行
・スパコン、エヌビディアやGoogleがAI特化 民間主導に
・国産スパコン「富岳」世界ランク2位 米が2年半ぶり首位

この記事の英文をNikkei Asiaで読む
Nikkei Asia
多様な観点からニュースを考える

※掲載される投稿は投稿者個人の見解であり、日本経済新聞社の見解ではありません。

柯 隆のアバター
柯 隆
東京財団政策研究所 主席研究員
コメントメニュー

ひとこと解説

課題は二つ:次世代スパコン開発を急ぐこと。スパコン開発は目的ではなく、手段であり、スパコンを使って何ができるかである。スパコンを使って薬の開発が有利になるといわれていたが、結局、世界トップレベルのスパコンを有する日本は独自のワクチンを開発できなかった。今回発表されたランキングでは、やや意外だったのは中国のスパコンの順位は思ったより低かったこと。原因はわからないが、半導体不足によるものかな
2022年11月15日 7:25 (2022年11月15日 7:38更新)
山崎俊彦のアバター
山崎俊彦
東京大学 大学院情報理工学系研究科  教授
コメントメニュー

別の視点

英語ですが、下記の本家サイトの中程にはトップ500に締める各国のスパコンの台数・割合が記されています。いろいろと思うところがありますね。

HIGHLIGHTS – NOVEMBER 2022
https://www.top500.org/lists/top500/2022/11/highs/
2022年11月15日 7:48

すべての記事が読み放題
有料会員が初回1カ月無料 https://www.nikkei.com/r123/?ak=https%3A%2F%2Fwww.nikkei.com%2Farticle%2FDGXZQOUC133N30T11C22A1000000&n_cid=DSPRM1AR08 』

[FT]米国、最速スパコン開発で中国追い上げ

[FT]米国、最速スパコン開発で中国追い上げ
https://www.nikkei.com/article/DGXZQOCB195DX0Z10C22A5000000/

『米国がスーパーコンピューターの新時代に突入しようとしている。処理能力が10年に1度の飛躍を遂げ、気候変動の研究から核兵器の実験まで様々な分野に大きな影響を及ぼすとみられている。

スーパーコンピューターの機器が並ぶオークリッジ国立研究所=C.B. Schmelter/Chattanooga Times Free Press via AP

通常ならこうしたブレークスルーによって国家の威信は高まるが、今回に関してはその可能性は低そうだ。中国が最初に突破口を開き、他国ではまだ使われていない次世代の高度なスパコンの構築に向けてすでに順調に進んでいる。

この分野の米専門家によると、中国の進歩を一段と際立たせているのは、国内の技術でそれが成し遂げられたことだという。開発に不可欠と考えられていた米国製ハードウエアへのアクセスを米政府が禁じたことが背景にある。

米国のスパコン専門家であるジャック・ドンガラ氏は、中国が20年以上前からスパコンの研究開発を積み重ねてきた結果、同国が世界をリードするという「驚くべき状況」になっていると指摘する。

最先端のスパコンは、気候変動や核爆発の影響を予測するモデルなど非常に複雑なシステムのシミュレーションを改善するために利用されている。英マンチェスター大学のニコラス・ハイアム教授(数学)によると、暗号の解読など機密分野でもひそかに利用されており、国家安全保障上の重要なツールになる可能性が高いという。

トップ500は中国が最多

スパコンの性能を競う世界ランキング「トップ500」に入っている台数は、米国の123台に対して中国は186台とすでに世界最多になっている。中国は今後、この分野で米国に先駆けて次の大きなブレークスルーを達成し、そうしたマシンを次々に開発して、何年にもわたって優位な立場を確保できるポジションにいる。

中国がブレークスルーを達成したのは、1秒間に100京(10の18乗)回の計算ができる「エクサ級」スパコンの開発競争だ。この計算速度は、10年以上前に登場したペタフロップス級の初代の1000倍にのぼる。

米エネルギー省のオークリッジ国立研究所(テネシー州)ではここ数カ月、国内で計画されている3台のエクサ級スパコンのうち、1台目の組み立てと試験が進められている。年2回発表されるトップ500の作成に携わるドンガラ氏によると、避けられない「バグ」が解消されれば、米国製エクサ級スパコンは5月末にもリスト入りするという。

一方、アジア技術情報プログラム(ATIP)でディレクターを務めるデービッド・カハナー氏によると、中国初のエクサ級スパコンは1年以上稼働しており、その後2台目が加わっている。ATIPの研究は最も権威あるものとして広く引用されている。

中国はエクサ級スパコンが2台あることを公式には発表していない。だが、その存在は2021年末に確認された。このマシンを使った科学的研究がスパコン分野のノーベル賞ともいわれるゴードン・ベル賞に応募され、ある論文がこの国際コンテストで最優秀賞を受賞したからだ。

米エネルギー省のローレンス・バークレー国立研究所で最近まで副所長を務めていたホルスト・サイモン氏は、最先端のスパコンを所有する中国は国防上、敵対国に対して明らかな優位性があると指摘する。

中国はスパコン開発のブレークスルーを公式に認めていない。この分野では何十年も前から、科学者が包み隠さず成果を語り、各国が最先端のマシンをいち早く自慢するのが常だったため、中国の判断はそうした歴史との決別と言える。この秘密主義には、米国からのさらなる報復を回避する狙いがあるかもしれないと専門家はみている。

米政府は19年、スパコン開発に関わる中国の5団体に制裁を科し、1年前にさらに7団体を対象に加えた。制裁の追加が行われたのは、中国初のエクサ級スパコンが起動した翌月のことだった。

中国がかつてエクサ級の壁の突破を目指していた時は、米半導体大手アドバンスト・マイクロ・デバイス(AMD)の技術に依存していたため、米国による貿易の制限で影響を受けやすい状態だった。これに対し、現行の2台は国内の半導体設計に基づいている。この2台に使われている半導体の国内メーカー、天津飛騰信息技術と上海高性能集成電路設計中心はいずれも21年の米国の制裁対象リストに含まれていた。

ドンガラ氏は「極めて短い期間に独自の技術でシステムを構築できたことには非常に感銘を受ける」と語った。ただ、半導体の生産が、世界最先端のメーカーと肩を並べるにはまだ何年も遅れている中国本土と台湾のどちらで行われているかは不明だという。

ソフトは米国に強み

中国は何年もの間、スパコンを中心に国内産業を築いてきた。2000年には当時世界最速のマシンを発表し、主なライバルである米国と日本に衝撃を与えた。エクサ級スパコン時代の幕開けは、もっと明確なリードを取るチャンスかもしれない。

米国は3台のエクサ級スパコンを開発中だが、中国の目標は25年までに10台を保有することだとATIPのカハナー氏は指摘した。同氏の調査によると、中国企業は今や海外のライバルが何をしているかよりも、国内での競争に重点を置いているという。米中間の格差が拡大すれば、米国は「(中国の)システムを深く探れるよう」期待して、江蘇省無錫市にある国立スーパーコンピューティングセンターに対する制裁の緩和を検討するとカハナー氏はみている。

中国はハードウエアでリードしているが、特にソフトウエアに関しては、米国の能力の幅広さが強みになるとカハナー氏らは分析する。米エネルギー省の3台のエクサ級スパコンでは、32億ドル(約4100億円)に上る費用の半分がこの新しいコンピューティングアーキテクチャー上で動作するプログラムの10年に及ぶ開発に投じられた。一方、ハイアム氏はスパコン関連の分野で中国の高等数学研究を目にすることはほとんどないと指摘する。

米中間の協力強化を求めるカハナー氏はこう語る。「新しいシステムにアクセスすることで実験が可能になり、すべての当事者に利益がもたらされる。安全保障や公正かつバランスの取れた競争に矛盾しない範囲で、アクセスは可能な限り多い方がよい」

ただ、中国はまだ新しいスパコンの性能を公には認めておらず、米国は中国が技術大国として台頭しないよう制裁の手を緩めていないため、それは非現実的な願いであり続けるかもしれない。

By Richard Waters

(2022年5月18日付 英フィナンシャル・タイムズ電子版 https://www.ft.com/)

(c) The Financial Times Limited 2022. All Rights Reserved. The Nikkei Inc. is solely responsible for providing this translated content and The Financial Times Limited does not accept any liability for the accuracy or quality of the translation. 』

真鍋淑郎、「世界で最もぜいたくにコンピュータを使った男」の知られざる研究半生

真鍋淑郎、「世界で最もぜいたくにコンピュータを使った男」の知られざる研究半生
真鍋淑郎 2021年ノーベル物理学賞受賞者インタビュー【中】
https://diamond.jp/articles/-/284204

 ※ はぁ…。この人、フォン・ノイマンの「孫弟子」だったんだな…。

 ※ フォン・ノイマン―ジョセフ・スマゴリンスキー―真鍋淑郎…、という「系譜」か…。

 ※ 『「コンピュータの父」ともいわれるフォン・ノイマンが、コンピュータを応用する最適な分野として気象予測を選び、プリンストン高等研究所に世界中から優秀な若手研究者を呼び集めていた。』…。

 ※ ある意味、フォン・ノイマンの「慧眼」が取らせた「ノーベル賞」という側面もあるな…。

 ※ 『大ざっぱな計算だが、40年間の滞米生活で気象研究のために使った研究費はざっと150億円。このうち約半分をスーパーコンピュータの使用料が占め、年間当り平均で2億円近くをコンピュータ代に使ってきた勘定になる。これだけ膨大な資金を、日本からやってきた一人の気象学者に注ぎ込むアメリカの研究体制――真鍋はつくづく、この国の持つ多様性というか、懐の深さを痛感せずにはいられない。』…。

 ※ 『給料も天国だった。日本の中央気象台の大卒初任給が8200円だったのに対し、米国気象局の給与は月額600ドル。当時の為替レート(1ドル=360円)で換算すると21万6000円に相当し、日本に比べてなんと26倍の高給を食んでいたことになる。』…。

 ※ 「ノーベル賞(人類の進歩と幸福に貢献したと評価できる研究に与えられる)」なんてものは、そういう中から、生まれるんだな…。

 ※ もちろん、「気候モデル」における「大気の3次元柱モデル」の計算処理と、スパコン(それも、ベクター型)の潤沢な使用が、ピッタリとマッチした(スパコンの潤沢な使用≒ノーベル賞級の研究成果の叩き出し…、というものでは無い)という側面があるのだろうが…。

 ※ 一方、「日本型研究システム」とは、『 97年9月末に赴任して以来、地球フロンティア研究システムでの研究は4年になろうとしているが、自由闊達な雰囲気とはほど遠い何かを感じざるをえない日々を過ごした。それはスマゴリンスキーのような名伯楽がいるいないという単純な理由ではなく、日本の社会システム全体にどっかりと根を下ろす『見えざる壁』ともいえる存在によるものだった。

 真鍋自身の経験に照らして、理由はいくつか挙げられる。まず、国の科学研究費配分の問題がある。日本では官僚が予算を取って、能力や業績に関係なく悪平等で研究費を配分する。大御所といわれる先生のもとには多くのカネがつき、気に入られた子分だけにカネが流れる仕組みだ。

 そこには、米国流のピア・レビューが働かない。日本では相手を批判すると面子をつぶすのではないかと恐れ、研究で最も重要な建設的批判が起こらない。お互いに批判を水際で止めて曖昧にしてしまうため、そこそこの研究成果で満足し、大きなブレークスルーにつながる芽を摘んでしまっている。』…、というようなシロモノらしい…。

 ※ まあ、「ノーベル賞級」の「頭脳」を招聘したとしても、「システム」がこれじゃあ、「ノーベル賞級の研究成果」は、生まれないだろう…。

『戦後の就職難で渡米、最高の上司と研究環境との出会いで
1~2年の滞在予定が40年に延びた

「世界で最もぜいたくにコンピュータを使った男」――地球フロンティア研究システムの真鍋淑郎・地球温暖化予測研究領域長の研究者人生を振り返るとき、これほど的を射た表現はほかに見当たらない。

 大ざっぱな計算だが、40年間の滞米生活で気象研究のために使った研究費はざっと150億円。このうち約半分をスーパーコンピュータの使用料が占め、年間当り平均で2億円近くをコンピュータ代に使ってきた勘定になる。これだけ膨大な資金を、日本からやってきた一人の気象学者に注ぎ込むアメリカの研究体制――真鍋はつくづく、この国の持つ多様性というか、懐の深さを痛感せずにはいられない。

 愛媛県新宮村に生まれた真鍋は代々医者の家系に育った。祖父も父も兄も医者という家庭環境のなかで、当然自分も医者になるものと小さいころから思い込んでいた。旧制三島中学(現県立三島高校)4年修了時に大阪市立医大に合格し、入学手続きをとって医者になるための勉強をスタートした。

 ところが、どうもこの世界が自分の性分に合わないことに気づき始めた。まず日本の医学教育が暗記中心の学問であることに幻滅を感じた。それに医者は緊急事態に対して冷静で的確な判断を求められるが、そういう状況になればなるほど平静でいられなくなる自分を意識した。

 本人の言葉を借りれば、「記憶力は悪いし手先は不器用だし、いざとなると頭にカッと血が上って何をしていいかわからなくなる性分」が、入学早々から心の内で医者への道を断念させていた。ほとんど「腰掛け状態」だった医大生活の1年後、たまたま大学が旧制から新制に切り替わる時期に当たり、この機会をとらえて自分に合った学問の分野に進路変更しようと決心した。

「とにかく自分の性格から考えて、時間を十分にかけ、じっくり問題に取り組める研究者の道が一番合っていると思った。データに基づいて自然現象の謎を解くことには子どものころから興味があり、これらの条件を満たせるのは物理学の世界ではないかと考えた」

 新制に替わった東京大学の試験に受かり、1949年春、第一期生として入学した。その際の喜びとは裏腹に、真鍋が有能な医者になることだけを楽しみにしていた父親のがっかりした顔が、脳裏に残っていまだに忘れることができないという。

 専門課程に進む際、真鍋には理論物理学に進むか、地球物理学に進むか二つの選択肢があった。東大に入学した年、湯川秀樹博士が日本人初のノーベル物理学賞に輝き、理論物理学が脚光を浴びている時期でもあった。しかし、「数学のできる優秀な人でないと理論物理学は無理」とあきらめて、地球物理学を最終的な専攻科目に選んだ。』

『大学院時代に米国気象局からスカウト

日本に職が無く「1~2年の予定」で渡米

 学部から大学院に進み、天気予報の精度を高める研究に没頭しながら博士号取得に向けたいくつかの論文をまとめた。そうした博士課程修了直前の58年初め、米国海洋大気庁(NOAA)の前身である米国気象局のジョセフ・スマゴリンスキー博士から招待状が届いた。真鍋が55年に発表した論文が彼の目にとまり、「アメリカでいっしょに仕事をする気はないか」という渡米を勧める誘いの手紙だった。

 当時の日本は、まだ敗戦の爪痕も生々しい戦後の混乱期で、大学を出てもほとんど職がないのが実情だった。まして専門が気象予測となると就職先も限られ、中央気象台(気象庁の前身)に入るか、大学に残って学者の道を歩むか、選択肢がきわめて限られていた。

 ところが、最も大きな受皿になるはずの中央気象台は、陸軍や海軍の気象部に在籍していた『残党』を抱え込み、ほかに行き場のない職員であふれ返っていた。仮に真鍋がそこに入っても、「10年後、20年後もペーペーのまま」の可能性が高く、とても就職しようという気持ちが起きなかった。

真鍋淑郎、「世界で最もぜいたくにコンピュータを使った男」の知られざる研究半生2001年9月29日号誌面

 一方、この時期のアメリカは「スプートニク・ショック」の真っただなかにあった。旧ソ連に人工衛星の打上げで先を越され、国を挙げて追いつき、追い越せと、科学技術予算が湯水のように付いた時代だった。61年にはケネディ大統領が「アメリカは今後10年以内に人類を月に送る」と宣言し、自然科学の分野は研究予算も研究レベルも黄金時代を迎えようとしていた。

 加えて、コンピュータも日進月歩の発展を遂げるスタートラインにあった。「コンピュータの父」ともいわれるフォン・ノイマンが、コンピュータを応用する最適な分野として気象予測を選び、プリンストン高等研究所に世界中から優秀な若手研究者を呼び集めていた。「今思うと研究者には夢のような時代」に、一大学院生だった真鍋にも正式にお呼びがかかったのである。

 招待状を送ってくれたスマゴリンスキーはノイマンの最も若い弟子に当たり、そのころすでに米国気象局で、数値データに基づいた長期予報の研究に携わっていた。日本で職がないことを考えると、この誘いは真鍋に魅力的なものと映り、とりあえず「1~2年のつもり」で招きに応じる決意をした。』

『背水の陣で渡ったアメリカに

理想の研究環境があった

 いざ現地に赴いてみると、そこは『天国』のようであった。日本だけでなく、ヨーロッパやインドなどからやってきた若い研究者にものびのびと研究させ、競争心を刺激し合う自由闊達な研究風土にあふれていたからだ。

 給料も天国だった。日本の中央気象台の大卒初任給が8200円だったのに対し、米国気象局の給与は月額600ドル。当時の為替レート(1ドル=360円)で換算すると21万6000円に相当し、日本に比べてなんと26倍の高給を食んでいたことになる。

 渡米した当時の心境を、真鍋は今こう振り返る。

「あの招待状は、今からみればたいへんすばらしいチャンスのように思えるが、本人の気持ちはそんな浮ついたものではなかった。むしろ日本に職がなく、背水の陣でアメリカに渡ったというのが正直なところだった。でも実際に行ってみると、外国から来た青二才の若者に好きなように研究させてくれた。多額の研究費も出て、研究一筋の毎日を送ることができた。20代後半にあの環境で研究できたことが今の自分につながっていると思う」

 コンピュータの発達と歩調を合わせるように、真鍋の気象研究は未開拓の分野を切り開いていった。気象局、そして地球流体力学研究所(GFDL)で、常に世界最高速のスーパーコンピュータを使い続け、それまでどちらかというと考古学的な学問だった気候変動の研究を、理論に基づいて数値モデル化する「大気科学」の土俵に乗せていく『先兵』の役割を果たした。

 そうした地道な研究の成果が、やがて67年の温暖化予測の先駆けとなる記念碑的な論文に結びつき、さらに69年の大気・海洋結合モデルへと発展していった。初め1~2年つもりで始めた米国生活は、研究三昧の日々が続くうちに10年、20年……と積み重なり、いつしか40年の長きに及んだわけである。

 もちろん、それは真鍋が「生涯の恩人」と仰ぐスマゴリンスキーの陰の支えがあったからこそ可能だったともいえる。GFDL初代所長で真鍋より7歳年上のこの気象学者は、今もプリンストン近郊で悠々自適の毎日を送っているが、この恩人を語る時の真鍋の表情はいつにも増して輝いて見える。

「こんな上司に仕えたら最高と思わせる典型的な人物だ。いい研究をすると徹底的にほめてくれるし、成果が上がらなくても決して『クビだ』などと批判的なことは言わない。しかも、部下に対して『雑用はしなくていい。それはオレ一人でたくさんだから、ともかく君たちは研究に没頭するように』と口癖のように言っている人だった。」

最高の上司との出会いでスピード出世

36歳で『大統領任命対象公務員』に昇格

 真鍋は渡米してから昼夜兼行で、ひたすら研究三昧の日々を送ったが、最初の8年間ほどはこれといった論文も書けず、精神的に不安定な状態が続いた。米国気象局は1年ごとの契約更新だっただけに、「今年中にほかの仕事を探して出ていくしかないかもしれない」と思い詰めた時期が何回かあったが、スマゴリンスキーは「いい研究をやっている」とほめるばかりで、叱責することは皆無といってよかった。』

『実際の研究でも、雑用のすべてを彼1人でこなしてくれた。特に真鍋らが感謝してやまなかったのは、他の研究所との争奪戦を繰り広げながら、常に最新鋭のコンピュータを導入してくれるその類い稀な力量にあった。

「数値モデルの計算に、その時々の最高速のスーパーコンピュータを使い放題使えたのは、本当に研究者冥利に尽きる喜びがあった。しかも、アメリカは専門家による相互評価(ピア・レビュー)が厳しい国だから、研究の提案書作成はたいへんな仕事だが、それも彼が一手に引き受けてくれた。GFDLで獲得した研究費の3分の1を私のグループに配分してくれて、やりたい研究が好きなだけできて、いい結果が出るとほめてくれる、こんなすばらしい上司がいますか?」

 もちろん真鍋が「成果が上がらないと居づらくなる無言の圧力があった」と述懐するように、真鍋自身の実力や努力が認められたからこそ、クビにならず研究生活を続けられたのだろう。スマゴリンスキーの軍団は、彼がトップを務めていた30年間というもの、80数人の少数精鋭主義を貫いており、そこからはずされなかった真鍋も優秀な研究者だったことは間違いあるまい。

 運も実力のうちというが、優れた上司に巡り合えた真鍋は自らの能力とも相まって、トントン拍子で出世の階段を上った。「日本人だからといって差別待遇を受けることは一度もない」まま昇級に昇級を重ね、36歳までの10年間で公務員としての職階であるガバメント・サービス・グレード(GSG)の11から16までを一気に駆け上がった。

 アメリカの公務員制度では、GSG16以上はポリティカル・アポインティ(大統領任命の対象)になる。真鍋は最速で『スーパーグレード』とも呼ばれる16に到達したわけだ。

 ビザも最初は短期就労(H1)ビザに始まり、次に一時雇用の公務員としてグリーンカード(永住権)を取得した。さらに70年代半ばには、「アメリカの市民権がないとグレードが上がらない」とのアドバイスを受け、実際に市民権を取って国籍を日本からアメリカに移してしまった。

 真鍋はスマゴリンスキーがGFDL所長を辞任したとき、後任に立候補しようとしたことがある。結果的に立候補を断念したが、それは日本人ゆえに差別待遇を受けたためではなく、「(所長の)公募に打って出ると言ったら、家族全員に反対された」からで、日本人に門戸が閉ざされているわけではなかった。』

『日本に帰って感じた

アメリカとの大きな違い

「自由闊達」という言葉がふさわしい40年間の滞米生活を総括して、真鍋はこんな感想を語る。

「スマゴリンスキーの管理能力がすばらしかったから研究所が有名になり、研究費も潤沢について好きな研究を好きなだけやれた。10年先、20年先を見据えた長期的な気候変動を研究テーマに選んだ彼の炯眼(けいがん)にも支えられ、初めのうちは数こそ少なかったが、独創性の高い論文を書くことができた。最初の10年間で数値モデルをつくり、それ以降はモデルを適用してさまざまな切り口を見つけ出していった。やはり駆け出しのころの彼の処遇のおかげで今日があり、その点は感謝しようにもし尽くせないものがある」

 こうした40年間の満ち足りた米国での研究生活と、現在の地球温暖化予測研究領域長の立場を重ね合わせながら、真鍋は「40年前の気象局の雰囲気と、地球フロンティア研究システムの今とが似ている」と、一瞬の夢から覚めたような表情でポツリとつぶやいた。ある種、草創期の張り詰めた緊張のようなものを感じるらしいが、じつはそれが似て非なるものであることを真鍋は知悉(ちしつ)している。

 97年9月末に赴任して以来、地球フロンティア研究システムでの研究は4年になろうとしているが、自由闊達な雰囲気とはほど遠い何かを感じざるをえない日々を過ごした。それはスマゴリンスキーのような名伯楽がいるいないという単純な理由ではなく、日本の社会システム全体にどっかりと根を下ろす『見えざる壁』ともいえる存在によるものだった。

 真鍋自身の経験に照らして、理由はいくつか挙げられる。まず、国の科学研究費配分の問題がある。日本では官僚が予算を取って、能力や業績に関係なく悪平等で研究費を配分する。大御所といわれる先生のもとには多くのカネがつき、気に入られた子分だけにカネが流れる仕組みだ。

 そこには、米国流のピア・レビューが働かない。日本では相手を批判すると面子をつぶすのではないかと恐れ、研究で最も重要な建設的批判が起こらない。お互いに批判を水際で止めて曖昧にしてしまうため、そこそこの研究成果で満足し、大きなブレークスルーにつながる芽を摘んでしまっている。

 真鍋にしてみれば日本の現状がなんとも歯痒くて仕方がないようだ。

「私が若い日にアメリカに渡り、自由にのびのび研究ができたような環境が日本にもできないものか。私が行ったころは、アメリカでクビになったら研究者としてのキャリアは終わり、もう食えないという背水の陣でやっていた。アメリカに渡る今のインド人や中国人の留学生のほうが背水の陣で必死にやっている。今や日本のほうが給料は高いし、無理にアメリカに行くこともないが、アメリカの環境は研究者にとって最も適したものだと思わざるをえない。その原点は、外国から来た人間を差別なく受け入れ、同じ土俵で才能の違った人間を徹底的に競わせる『多様性』の文化にあるのかもしれない」

 若き日への憧憬と現状への不満との狭間で、やはり真鍋の思いは40年の長きを過ごしたアメリカに向かうようである。(文中敬称略)
きし・のぶひと/1973年東京外国語大学卒業、読売新聞社入社。横浜支局を経て経済部に勤務、大蔵省、通商産業省、日本銀行、経団連機械、重工クラブなどを担当。91年読売新聞社を退社、知的財産権などをテーマに執筆。』

スパコン富岳、世界一の計算力で革新的AI開発に挑む

https://www.nikkei.com/article/DGXZQOHD163KW0W1A210C2000000/

『スーパーコンピューターで膨大なデータを学ばせ、創薬や材料開発、自動運転車などの画期となる人工知能(AI)を実現しようとする研究が進む。理化学研究所は世界最高峰のスパコン「富岳」の全計算能力を使って技術革新を目指す。欧米でも同様の動きは盛んで、計算力がAI競争の行方を握っている。

理研は2022年度にも富岳の全ての計算能力を使い、世界最大のAIを試作する。富岳は16万個のCPU(中央演算処理装置)を…

この記事は会員限定です。登録すると続きをお読みいただけます。

残り1607文字

春割ですべての記事が読み放題
今なら2カ月無料!

春割で申し込む
https://www.nikkei.com/promotion/?ak=https%3A%2F%2Fwww.nikkei.com%2Farticle%2FDGXZQOGM11C1B011032021000000&n_cid=DSPRM1AR08_promo

無料会員に登録する
https://www.nikkei.com/r123/?ak=https%3A%2F%2Fwww.nikkei.com%2Farticle%2FDGXZQOGM010QT001022021000000&n_cid=DSPRM1AR07#free

ログインする
https://www.nikkei.com/login

富岳は16万個のCPU(中央演算処理装置)を持ち、例えばAIに使うと、1秒間に約2エクサ(エクサは100京)回の計算ができる。これを全て使い、創薬や材料開発、自動運転など分野ごとに画期的なAIの実現を目指す。

AIの開発は一般に、創薬や自動運転など目的ごとに関係するデータを大量に計算機に入力して学ばせる。データ量を増やしても性能が高まらなかったり、間違った判断をしたりする場合があった。だが近年、学習法の研究が進んで、データ量や計算機を増やせば性能を高められることが機械翻訳などでみえてきた。

現在では、スパコンの計算能力、学ばせるデータ量、計算結果を左右する項目「パラメーター」の数が重要と注目されている。パラメーターとは例えば病院の診断用のAIならば性別や年齢、既往歴といった項目だ。

スパコンを使うのは、大量のデータを学ばせる必要があるからだ。例えば自動運転車を開発する場合、1台が1年間走ると、カメラや光センサーから約2ペタ(ペタは1000兆)バイトものデータが集まるといわれる。

松岡聡・理研計算科学研究センター長は「創薬や自動運転、翻訳などでは、ペタバイト以上のデータを扱うことが普通になった。それだけのデータを使ってAIを作るには、優れたスパコンが不可欠だ」と話す。

理化学研究所のスパコン「富岳」(理研提供)

目指すのは画期的なAIの開発だ。米マイクロソフトの支援を受ける研究企業、オープンAIが20年6月に公開したAI「GPT-3」は、人に近い自然な文章を作れてイノベーションを起こしたといわれる。1750億ものパラメーターを扱う大規模な計算モデルを使って性能を高めた。

富岳は計算能力では現在世界1位だ。GPT-3が学習に使ったデータの約114倍にもなる5120テラ(テラは1兆)バイトのデータを学習したAIを動かせる。パラメーターの数も同等以上にはなる見込みだ。

松岡氏は「画像や化合物の構造データを大量に作ったり、高速でAIに覚えさせたりする。スパコンで作ったAIでないと画期的な創薬研究などはできない」と話す。足りないデータをAI自体に作らせ、効率的に学ばせる手法は今の主流だ。

理研は富岳で、病気に関わる体内のたんぱく質の構造を詳細に解析し、薬の候補物質を探す。コンピューター断層撮影装置(CT)などの医療画像を使い、がんの早期診断を目指す。30年代に実現が見込まれる「レベル5」と呼ばれる完全自動運転車を実現するAIの開発にも取り組む。

スパコンをAI開発に使う取り組みは、11年に米グーグルと米スタンフォード大学が始めた。現在は米中が先頭を走り、企業も目立つ。「米エヌビディアやマイクロソフトは世界トップ10に入るスパコンを持つ。中国の百度も取り組んでいる」(松岡氏)

欧州では、イタリアの約100の大学と公的機関が構成する研究者の組織「CINECA(シネカ)」が、世界最速のAI向けスパコン「レオナルド」を作る。1秒間に10エクサ回計算できる能力で、22年に運用を始める予定だ。サンツィオ・バッシーニ・ディレクターは「新型コロナウイルス感染症の治療に既存薬を転用する研究や、豪雨や地震などの予測に役立つ」と話す。

期待は大きい。米アルファベット傘下の英ディープマインドは20年11月、半世紀にわたる生物学の難題を解くAIを開発した。創薬につながるたんぱく質の立体構造を短時間で予測した。

今後も競争は続く見込みだ。オープンAIの試算によると、AIを作るのに必要な計算能力は約3.5カ月ごとに2倍になるという。産業技術総合研究所の小川宏高・人工知能クラウド研究チーム長は「今後もスパコンを使ったAIの開発競争は激しくなる」と言う。

勝ち抜くには、スパコンへの投資と人材育成が必要だ。産総研などは講習会を開き、人材育成に取り組んでいる。小川チーム長は「国内企業はスパコンにほとんど投資していない」と話す。大規模なAIを作る潮流に乗り遅れれば、日本の産業競争力をさらに落としかねない。(草塩拓郎)

多様な観点からニュースを考える
※掲載される投稿は投稿者個人の見解であり、日本経済新聞社の見解ではありません。

山崎俊彦のアバター
山崎俊彦
東京大学 大学院情報理工学系研究科 准教授
コメントメニュー

ひとこと解説 スパコンがなぜ必要かという実例を1つご紹介します。記事でも言及があるGPT3の学習には”It was estimated to cost 355 GPU years and cost $4.6m.”とされています。約5億円のコストをかけねばならず、1枚のGPUだと355年もかかってしまう膨大な計算が必要です。

How GPT3 Works – Visualizations and Animations
https://jalammar.github.io/how-gpt3-works-visualizations-animations/

2021年4月2日 12:55いいね
0

竹内薫のアバター
竹内薫
サイエンスライター
コメントメニュー

別の視点 京は計算速度をウリにした結果、社会からあまり支持が得られませんでした。富岳は、その名のとおり、広い裾野を意識し、さまざまな分野で実際に活用してもらおうという姿勢が鮮明ですね。日本のAI開発はいまだ周回遅れと言われていますが、オールジャパン体制で巻き返しを図ってもらいたいです。

2021年4月2日 12:41いいね
1

慎泰俊のアバター
慎泰俊
五常・アンド・カンパニー株式会社 代表取締役
コメントメニュー

別の視点 AIの構成要素はデータと演算性能とアルゴリズムであり、これらは相互補完的に強くなります。例えば、計算機の性能があがり、デジタル化されたデータが大量に集まったことで、アルゴリズムも進歩しているわけです。

ですので、演算性能が高いコンピューターがあるだけでは不十分で、大量のデータやアルゴリズムを開発する人材が必要なわけですが、この二点についてはすでに米中に大幅に遅れを取っており、現在のフェーズでのキャッチアップはもう難しいと思います。

ですので、次のフェーズで勝つために必要なものが何かを見極め、そこにリソースを割いていくべきではないでしょうか。

2021年4月2日 11:46いいね
6

新型コロナだけじゃない!本格稼働の「富岳」、今後の産業応用の課題を解説

https://newswitch.jp/p/26254

『感染症/災害/次世代メモリー 計算資源活用前倒し

世界最速のスーパーコンピューター「富岳(ふがく)」が9日に本格稼働する。当初2021年度の供用開始を目指していたが、新型コロナウイルス感染症対策などに利用するため稼働時期を早める。

計算資源の一部を使ってすでにいくつかの成果を挙げており、今後は一般に利用枠を広げて大学や産業界の積極的な活用を促す。新型コロナ研究のほか、新規感染症に向けた研究やゲリラ豪雨などの予測、次世代メモリーの開発といったテーマが選定されており、最新鋭スパコンの威力が試される。(藤木信穂、山谷逸平、冨井哲雄)

理化学研究所計算科学研究センター(神戸市中央区)に設置された富岳は、理研と富士通が14年度から共同で開発し、20年にスパコン性能ランキングの4部門で2期連続の世界一となった。

11年に世界首位の座についたスパコン「京」の後継機で、京の弱点を克服し、目標とした「省電力でアプリケーション性能に優れ、使い勝手の良いコンピューター」を実現した。

15万個を超える中央演算処理装置(CPU)を搭載し、毎秒44京2010兆回(京は1兆の1万倍)の計算が可能。京の最大100倍という性能は折り紙付きで、汎用性の高さを売りにする。

富岳は20年4月から一部の計算資源の利用を前倒し、新型コロナ研究に活用。さらに試験的な「成果創出加速プログラム」として、22年度までシミュレーションや人工知能(AI)、データサイエンス、災害領域などから19件のテーマを選び、研究を進めている。

9日にスタートするのは、富岳の計算資源の約50%を割り当てる、産業利用を含む「一般利用」枠で、21年度課題として2月中旬に81件の応募から74件のテーマが決まった。

感染症対策や次世代コンピューティング研究など重点分野に加え、災害リスク評価や量子シミュレーションなど大学や研究機関の目玉テーマが並ぶ。

産業課題では、日本自動車工業会の「自動車先端コンピューター利用解析(CAE)の開発」や、住友化学の「大規模量子化学計算による有機半導体材料設計」、富士フイルムの「酸化物アモルファス電解質のイオン伝導メカニズムの研究」など14件を選定。

このほか若手研究者向けや利用促進課題があり、選定した高度情報科学技術研究機構は「まずは早期に研究を立ち上げ、成果を出してほしい」と期待する。

スマート社会への道を拓く富岳

コロナ対策加速

新型コロナ対策に富岳を活用することで、研究の加速が期待される。理研は20年4月、新型コロナ対策に貢献する成果をいち早く創出するため、まだ開発・整備中だった富岳の計算資源を関連する研究開発に優先的に提供することを公表。新型コロナの治療薬候補や室内環境におけるウイルス飛沫(ひまつ)感染の予測によるマスクの効果検証、同11月に追加された「重症化に関するヒト遺伝子解析」など、六つの研究課題に使用されてきた。

医学的側面からの研究では、治療薬の候補特定に富岳を使用し、数十種類の薬剤候補が得られた。別の研究チームでは、新型コロナの表面にある「スパイクたんぱく質」の構造変化に糖鎖が重要な役割を果たしていることを突き止めた。

富岳で検証した飛沫抑制効果。左から不織布マスク(顔に密着)、不織布マスク(隙間あり)の上にウレタンマスク。黄色は隙間から漏れた飛沫、青はマスクを透過した飛沫。赤はマスクで捕捉された飛沫(理研提供)

社会的側面からの研究では、ウイルスの飛沫感染予測を行う研究チームが次々と成果を報告。湿度との関係や、タクシー、航空機などでのリスク低減策も公表した。直近ではマスクを2枚重ねる「二重マスク」着用と、不織布マスク1枚を正しく着用した場合とで飛沫拡散の抑制効果に大差がないことを明らかにしている。

超スマート社会の基盤

政府の研究開発の強化戦略「統合イノベーション戦略2020」では、富岳を「ソサエティー5・0」の計算基盤と位置付けている。文部科学省は大学や国立研究開発法人などの研究者だけでなく、産業界の利用を促す。萩生田光一文科相は「富岳は国民共有の財産。大学や研究機関だけでなく、民間や高校生など幅広い人々に使ってほしい」と呼びかける。

新型コロナの研究で注目されている富岳だが、活用の幅は広い。前回の京に比べ高解像や大規模なシミュレーションを利用した各分野での成果の創出が期待されている。

中でも材料やデバイスのマテリアル分野への活用が注目される。富岳を活用して、シミュレーションとAI・データ科学を融合させたマテリアル解析・開発が進むかもしれない。

政府はマテリアル分野の研究開発方針をまとめた「マテリアル戦略」を策定中。その中で富岳を日本の強みとなる研究基盤と位置付け、マテリアル領域でのデータの蓄積と利活用に貢献するとしている。

政府が閣議決定した21年度文科省予算案では富岳の整備・運営にかかる費用として153億円、20年度第3次補正予算案で325億円を計上。

さらに富岳を中核とし全国の国立大学や研究所などに設置されている主要なスパコンをネットワークで結び付ける「HPCI」の運営を通じ全国の研究者などに優れた計算環境を提供する。国内での研究基盤を強化し、新しい成果の創出が期待される。

インタビュー/理化学研究所計算科学研究センター長・松岡聡氏 困難が進歩につながる

理化学研究所計算科学研究センターの松岡聡センター長に、富岳の今後の活用の方向性について聞いた。

理化学研究所計算科学研究センター長・松岡聡氏

―京との違いは。

「京は演算性能を追い求めた。だが富岳は計算速度でなく、計算性能の高さと広がりを目指してきた。スマートフォンで使われているアプリケーション(応用ソフト)でも動くことから、汎用のITと広くつながった。スパコンの世界にとどまらず、ITの中心的な役割を担うのにふさわしい、ITの頂点となるマシンを作れたと言える」

―富岳を活用してもらう側として何を感じましたか。

「科学者は新型コロナという世界的な困難にどう対応すべきかという“挑戦状”を突きつけられた。チャレンジ精神を発揮し富岳を活用して困難に取り組むことが富岳の進歩にもつながり、結果的に本格運用の前倒しを成し得た」

―富岳の今後の活用の方向性は。

「新たに始まる『第6期科学技術・イノベーション基本計画』の観点では、超スマート社会『ソサエティー5.0』の社会実装が大きなテーマとなる。従来の物理的な世界のシミュレーションとITの世界のシミュレーションを同時に行う必要があり、そこで貢献することになるだろう」

*取材はオンラインで実施。写真は理研提供

日刊工業新聞2021年3月9日』

インテル入ってない:アームが半導体巨人を倒すまで

インテル入ってない:アームが半導体巨人を倒すまで
アームはモバイル端末のほか、PCやクラウドでも使用が増えている技術の設計を手掛ける
https://jp.wsj.com/articles/SB10671388092954773957304587158144275503230

『By Christopher Mims
2020 年 12 月 15 日 09:47 JST 更新

――筆者のクリストファー・ミムズはWSJハイテク担当コラムニスト

***

 米半導体大手インテルが設計し製造したマイクロチップはかつて、ほぼ全てのパソコンやクラウドコンピューティングの中核をなすほど支配的だった。だがここ何年も、競合他社の後塵(こうじん)を拝している。そうしたライバルには無数のスタートアップ企業のみならず、時価総額が数兆ドル規模の企業も含まれており、インテルの牙城を崩すまであと一歩のところまできている。

 アップルは最近、自社の新型パソコンシリーズ「Mac(マック)」へのインテル製チップ搭載を終了すると発表した。自社の設計品に切り替えるという。インテル長年のパートナーであるマイクロソフトも、自社のタブレット端末「サーフェス・プロX」に独自のチップを搭載。グーグルは自社のスマートフォン「ピクセル」にクアルコム製、パソコン「クロームブック」にはインテル製のチップを使用しているが、内製化に取り組んでいるようだ。一方、韓国サムスン電子は20年にわたり独自チップを設計している。ただしインテル、クアルコム両社との提携は続けている。

 こうした動きの背景には、効率性がかつてないほど求められていることがある。アップルは今年、「ワット当たりの性能」について大いに喧伝した。この基準はバッテリーで動く機器にとって明らかに重要だが、世界の消費電力の1%を占めるクラウドコンピューティングにとってもしかり。このようなニーズを満たすため、電子機器メーカーは自社製品によりカスタマイズしやすいマイクロチップを選択している。車両を駆動するのに開発されたエンジンと同様に。

 カスタムメードのチップ製造で先頭を走るのは製造企業ではない。ほぼ全てのモバイル端末のほか、パソコンやクラウドサービスでも使用が増えている技術の設計を手掛けるのは英半導体設計大手アーム・ホールディングスだ。同社がマイクロチップの設計図をライセンス供与するハイテク大手やハードウエアのスタートアップは計500社余り。すでにスマホやタブレット端末、ノートパソコン向けプロセッサーの市場シェアは9割に上る。

 インテルは米アドバンスト・マイクロ・デバイセズ(AMD)と台湾の威盛電子(VIAテクノロジーズ)との長年の関係を除けば、他社にマイクロチップの設計図をライセンス供与しない。インテルはアマゾン・ドット・コムのような大容量のデータ処理を必要とする顧客のために、自社の高性能プロセッサー「Xeon(ジーオン)」をカスタマイズする。

 アームが供与するライセンスは特定のニーズに合わせ、同社のさまざまな「コア」を組み合わせることが可能だ。同社のレネ・ハース知財製品担当プレジデントによれば、気温観測など低電力の環境センサーのチップを作りたい顧客はコアが1つしか必要ないかもしれないが、超高速のクラウドサーバー向けプロセッサーには最大96コア必要になる可能性があるという。

アップルの新「MacBook」に搭載された独自チップ
PHOTO: DANIEL ACKER/BLOOMBERG NEWS

 社内に経験豊富で大きなチップ設計チームがあるアップルやサムスン、クアルコム、エヌビディアといった一部企業はあまり一般的でないタイプのライセンスを求め、独自に設計されたチップを製造する。それでもアームのエコシステム内にある。同じ「命令セット」を使用しているからだ。

 現時点でインテルの命令セット「x86」とアームの命令セットの特徴の違いは不鮮明だ、と指摘するのはアンディ・ファン氏だ。同氏はベテランエンジニアでチップ設計企業に助言を行う。アームの命令セットはインテルのとほぼ同じくらい大きく複雑化しているが、インテルは効率性を向上させた高性能チップの設計に注力しているという。

 両社にとって現在、処理速度と同じくらいカスタマイズが戦いの場となっているが、アップルが新「MacBook(マックブック)」に搭載した独自のチップ「M1」の評価基準は、アームベースのチップが非常に処理速度が速くなり得ることを示している。現在世界最速のスーパーコンピューターには富士通の開発したチップが搭載されているが、アームの技術に基づいている。

 電子機器メーカーはカスタマイズしたチップの製造をベストなファウンドリー(受託生産)企業から選べるし、最先端技術の大半はもはやインテルではなく、(ほとんどがアームの技術が基になる)チップを実際に製造している台湾積体電路製造(TSMC)やサムスンといったライバル企業に属している。

 ほかにも、インテルの領域に踏み込んでいる企業がある。画像処理半導体(GPU)と人工知能(AI)の市場を支配し、時価総額で現在最大の米半導体メーカーであるエヌビディアは、アーム・ホールディングスをソフトバンクグループから400億ドル(現金と株式)で買収することで合意している。規制当局の審査を通過すれば、業界史上最大の買収案件となる。

自社のタブレットPC「Surface Pro X」を紹介するマイクロソフトのパノス・パネイ最高製品責任者(19年10月)
PHOTO: MARK KAUZLARICH/BLOOMBERG NEWS

 アップル創業者のスティーブ・ジョブズ氏は2006年、同社がインテル製チップに切り替えると発表した。当時採用していたチップの製造元であるIBMが追いついてこられなかったためだ。インテルは10年以上にわたり、パソコン・サーバー向けチップの消費電力と効率性で業界トップを走り続けた。

 だが同時期にインテルは致命的なミスを犯した。当時のポール・オッテリーニ最高経営責任者(CEO)は、「iPhone(アイフォーン)」に搭載するチップを製造してほしいというアップルの依頼を断ったのだ。アップルはアームの設計に基づいて独自チップの開発に乗り出し、2010年に発表されたiPhone4に初めて搭載された。産声を上げたばかりのモバイル業界の他企業もすでにアームの技術を採用しており、アーム支配の流れに向かっていった。

 スマホ革命が起きなければ、インテルは今でも中央処理装置の市場を握っていた、とハイテク分野の調査会社ムーア・インサイツ・アンド・ストラテジーのパトリック・ムーアヘッド社長は語る。

握手するアップルのスティーブ・ジョブズCEO(左)とインテルのポール・オッテリーニCEO(06年1月)
PHOTO: PAUL SAKUMA/ASSOCIATED PRESS

 このような戦い――インテルの垂直統合的アプローチとアームのより柔軟な戦略――はクラウド、厳密に言えば、データセンターでも繰り広げられている。クラウドサービス最大手アマゾンの「アマゾン・ウェブ・サービス(AWS)」は独自に開発したアームチップを使っている。インテル製と比べ、クラウドアプリの性能が40%上回り、コストも20%低いとしている。

 にもかかわらず、インテルのクラウドサーバー向けチップ需要は衰えていない。2020年9月までの1年間の売上高は前年同期比11%増の781億ドルだった。新型コロナウイルスの世界的流行によりパソコンとサーバーの需要が爆発的に増えたおかげで、同期間の増収率は何年かぶりの大きさだ。同社はこの勢いに乗じて新規ビジネスへの参入をもくろんでいる。そうした分野にはGPUやAIトレーニング、5G(次世代通信規格)ネットワーキング、自動運転が含まれる。ロバート・スワンCEOは、同社がもはやパソコン・サーバー市場の支配に重点を置くべきではなく、「あらゆる半導体製品」のシェア3割を目指すべきと繰り返し述べている。

マイクロ・マジックが発表したRISC-Vコア(2日)
PHOTO: MICRO MAGIC|, INC.

 一方のアームは、今後も事業拡張を続けたいなら現状にあぐらをかいてはいられない。カスタマイズと費用効率の高い製造オプションを約束してインテルから顧客を奪ったように、今度は新たなスタートアップに脅かされる立場になりかねない。そうしたスタートアップの一つが、カリフォルニア大学バークレー校が開発した「RISC-V(リスクファイブ)」だ。設計が簡略化されていることで、「ワット当たりの性能」という今では不可欠な基準において有望な結果が最近示されている。だが最大のウリはオープンソースであることだろう。アームとは異なり、RISC-Vの命令セットを無料で利用できるのだ。

 中国ハイテク大手アリババグループはRISC-Vベースのチップを発表した。米トランプ政権下で欧米の技術や知財を取得するのが困難な他の中国企業も関心を寄せている。

 一方、インテルが成長し続けることができるかどうかは、製造で再び追いつけるかにかかっているかもしれない。さまざまな試みがうまくいかなくても、インテルが巨大なエコシステムを持つことができれば、それによってもたらされる勢いはこの先何年も同社が重要な企業であり続ける一助となることは間違いないだろう。また、あらゆる種類のプロセッサーの需要が爆発すれば、最も強力なライバルさえ、インテルを締め出すのに十分な供給を行うことは難しいかもしれない。』

スパコン「富岳」6月に続き連続首位、4冠を達成

https://www.yomiuri.co.jp/science/20201117-OYT1T50148/

『スーパーコンピューター(スパコン)の計算速度を競う世界ランキング「TOP500」で、理化学研究所と富士通が開発した「富岳ふがく」が、今年6月に続いて1位となった。スパコンの研究者らで作る国際会議が17日発表した。日本のスパコンの連続首位は「京けい」が達成した2011年以来、9年ぶり。

計算速度で再び世界一になったスーパーコンピューター「富岳」(神戸市中央区で、6月23日撮影)
 同ランキングは毎年6、11月の年2回発表される。発表によると、富岳の計算速度は毎秒44京2010兆回(京は1兆の1万倍)。2位の米国製スパコンの約3倍となるスピードで圧倒した。4位までの順位は前回と変わらなかった。

 このほか、人工知能(AI)分野で使う計算能力やビッグデータの解析能力など3部門でも1位を獲得し、4冠を達成した。

 富岳は、同じく理研と富士通が開発した「京」の後継機で現在試運転中。21年度の本格運用に向け、心臓部にあたる中央演算処理装置(CPU)をフル稼働させ、能力をアップさせた。

 富岳は既に新型コロナウイルス対策に緊急投入され、唾液の飛沫ひまつの拡散予測などで成果を上げている。21年度以降は公募で選んだ研究テーマで活用し、気象予測や創薬など幅広い分野での利用が期待されている。』

スパコン「富岳」、世界4冠へ貫いた信念とは?

スパコン「富岳」、世界4冠へ貫いた信念とは?理研・松岡氏が明かす開発の舞台裏
浅川 直輝 日経クロステック/日経コンピュータ

https://xtech.nikkei.com/atcl/nxt/column/18/00677/080600058/

『「スパコンは使われてなんぼ」。理化学研究所計算科学研究センターの松岡聡センター長は、かねてこう公言してきた。スーパーコンピューター「富岳」の開発でも信念を貫いた。性能ランキングの世界4冠を達成した決め手は何だったのか、最先端技術を開発する国家プロジェクトのあるべき姿とは。開発をけん引した松岡氏に直撃した。

(聞き手は浅川 直輝=日経コンピュータ編集長)

改めて「富岳」の世界4冠獲得、おめでとうございます。開発プロジェクトにおいて最も重視したことは何でしょう。

 アプリケーションファーストの設計思想を貫くことです。企業や研究機関が実際に使う様々な科学技術計算用アプリケーションを、最高の性能で動かす。これを一番の目標に掲げて徹底しました。

 我々は富岳の開発過程で、社会的・科学的に意義が大きく重点的に取り組むべき「重点課題」を9つ設けました。いくつかの課題については既に現状の100倍以上のアプリケーション実効性能を発揮しています。重点課題全体の平均でも数十倍ですね。

 何か1つの分野ではなく様々な分野のアプリケーションを最高の性能で動かすために、我々が知る限り最善のマシンを作りました。結果としての世界4冠だと考えています。

 開発に当たり、特定のベンチマークで1位を目指すつもりは全くありませんでした。およそ10年の開発期間を通じて、設計についてベンチマーク性能とのトレードオフを迫られた際にベンチマーク性能を選んで設計を変更したことは、今まで一度もありません。

演算パターンの多くをカバー
富岳が1位をとった4つの指標のうち、TOP500(LINPACK演算性能)以外の「HPCG」「Graph500」「HPL-AI」の意義を教えてください。

 HPCGは自動車や飛行機の空力設計、構造計算といった産業用アプリケーションの性能を測る代表的な指標です。

 Graph500は文字通り大規模なグラフ、すなわち多数の頂点と枝から成るデータ構造を解析する性能を評価する指標です。実社会の複雑な現象を表現する際に、グラフをよく使います。ソーシャルネットワークや各種のビッグデータなどです。

 最後のHPL-AIはCNN(たたみ込みニューラルネットワーク)をはじめとする深層学習(ディープラーニング)の性能評価の指標です。2019年にできたばかりのベンチマークですが、今後は従来の伝統的な数値計算をある程度置き換わるものになるでしょう。

 これらとTOP500を加えた4つのベンチマークで世の中の演算のパターンをかなりカバーできています。これらのベンチマークに関する富岳の演算性能が評価されたのは、私たちが掲げた開発方針に照らして大きな意義があると考えています。

(写真:菅野 勝男)
[画像のクリックで拡大表示]
汎用性を高めるため、京の「SPARC」に代えて「Arm」を採用しました。決断には曲折があったのでは。

 Armの採用を決定するまでにはすごい戦いがありました。理研側は絶対Armにしようと言っていました。

 京の失敗の1つは売れなかったことです。エコシステム(普及促進に向けた生態系)を作れず、ソフトウエアが出てこなかった。

 最終的にArmに決めてよかったと思っています。富士通にとっても、CPUの重要な部分を外部から吸収できたのはベネフィットがあったのではないでしょうか。

Armのエコシステムにはどう貢献すると考えますか。

 社会的インパクトが大きいと思います。今やスマートフォンのCPUとして誰でもArmを使っているわけですから。スパコンというお化けみたいなArm搭載機が登場したのは、Armの特徴を分かりやすく示した例と言えるでしょう。

 クラウドをはじめとする様々な分野のエコシステムにArmが採用される道が開けたと考えています。富岳に使ったバージョンか将来のバージョンが、クラウドのデータセンターで大規模に使われる可能性は十分にあるでしょう。動画配信は得意分野ですし、AI向けの用途も期待できます。

(写真:菅野 勝男)
[画像のクリックで拡大表示]
富岳の開発プロジェクトにおいて最も苦労したことは何でしょう。

 メンバーごとに違うと思いますが、私としては消費電力の目標を達成するのに最も苦労しました。むちゃくちゃアグレッシブな目標でしたから。

 消費電力に関しては、1ワット当たり十数ギガフロップスの性能を達成しないとマシンを作れないと分かりました。これは当時としては常識外の(省エネの)数字でした。当時の世界トップクラスのGPUマシンと比べても3倍の開きがあった。これをCPUでやらなくてはならなくなったのです。

 京は1ワット当たり1ギガフロップス以下でしたから、これは大変なことだと。当時の(GPUを採用した)TSUBAME2.5でも3ギガフロップスくらいでした。

半導体技術の見直しが奏功
目標を達成するためにどんな工夫を?

 ポイントは半導体の設計にあったと考えています。あれこれアセスメントした結果、このままでは目標に届かないという結論に達しました。そこで製造を委託した台湾の半導体大手TSMCからの詳細な設計データを基に議論を重ねました。

 その結果、半導体のアーキテクチャーを見直しました。当初の富岳用チップは(京の派生スパコン)FX100に近い設計でしたが、現在は大きく変えています。

半導体の設計レベルで見直したと。

 その通りです。富士通の貢献が大きかった。

省電力性能を競う「Green500」は4位でした。結果をどう評価しますか。

 富岳の順位は4位でしたが、消費電力効率の値そのものはトップと2割ほどしか違わないんですよ。パワポ(Microsoft PowerPoint)まで動く汎用性を確保したうえで、たかだか2割しか違わないのはすごいことです。

 Green500向けに富岳のハードやソフトをチューニングする時間がまったくありませんでした。だから今回のGreen500の結果は、本当の実力ではありません。

富岳の世界4冠は日本のコンピューター産業の発展や人材の育成にどう貢献すると考えますか。

 まず富士通が素晴らしいプロセッサーを作ったことをみなさんに分かっていただきたい。なぜ実現できたのかと言えば、国プロ(国家プロジェクト)として取り組んだからです。民間企業としてのビジネス目的だけだったら、絶対に無理だったでしょう。

 民間では担保できないリスクマネーを国が投入して、オールジャパンでつくり上げたからできたんです。ある意味、ムーンショット(月面着陸のような革新的な取り組み)と言えるのではないでしょうか。

 IT産業は民間が主導している印象があるかもしれませんが、民間だけで本当の最先端技術を開発するのはリスクが大きすぎます。ソフトウエアなどの既存資産がありますから。民間はむしろ、最先端技術の研究開発にコンサバティブになる面がある。一方である程度アグレッシブな技術や製品を開発しないと、世界では競争できません。

国家プロジェクトが必ずしも成功するわけではありません。むしろ失敗とされる事例が多いのでは。

 おっしゃる通りです。IT産業に国が口を出して失敗した例はたくさんあります。ただ、あまりに失敗の印象が強いため、国がそういうところに何か参加して、リスクマネーをばらまいても意味がないんじゃないかと捉える風潮があるような気がするんです。

 もちろん投資すべき分野の見極めは必要です。国プロの評判が悪くなったのは見極める力や人材が不足していたのも一因でしょう。

(写真:菅野 勝男)
[画像のクリックで拡大表示]

 富岳に関しては私は当事者ですが、やはりプロジェクトの過程や結果を客観的に分析すべきです。勘所の方程式をまとめ上げて、ITや他の分野に適用していく必要があります。こうした取り組みを重ねれば、日本の産業は世界の中でより競争力を高められるのではないでしょうか。』

スパコン世界4冠の「富岳」、そのすごさを丸っと解説!

https://newswitch.jp/p/22744

『今回のスパコン首位奪還は国産コンピューターの底力に加え、日本のモノづくり力を世界に知らしめた。

その象徴とも言えるのが、富岳の心臓部を担う中央演算処理装置(CPU)「A64FX」だ。スパコン「京」でも理研とタッグを組んだ富士通は、長年培ってきたプロセッサー設計の知的財産とノウハウをA64FXに注ぎ込んだ。

A64FXは携帯電話向けでも知られる英ARM(アーム)仕様の64ビットプロセッサー。ARMと共同で、スパコン向けに新しいアーキテクチャー(設計概念)を開発し、世界に先駆けて商用化した。

アーム仕様はオープンソースを推進する開発コミュニティーなどが多く、稼働するアプリケーションの数も多い。これが京と富岳との大きな違いだ。』
『京は高性能のUNIXサーバーで実績を持つ「スパーク」仕様をベースに独自にプロセッサーを作り込んだ。これにより11年に世界最速の座を射止めたが、独自仕様がハードルとなり、市販のアプリがそのままでは動かず、仲間作りでは苦労を余儀なくされた。富岳ではこの教訓を生かしアーキテクチャーをアーム仕様に切り替えた。』
『A64FXは演算処理を担うコア(回路)数が48個。トランジスタ数は約87億個に上り、ピーク性能は2・7テラフロップス(テラは1兆)以上。プロセッサー内には高速メモリー「HBM2」が直付けされており、処理能力を左右するピークメモリーバンド幅は毎秒1024ギガバイト(ギガは10億)と高速だ。

富士通は米ヒューレット・パッカード・エンタープライズ(HPE)とのパートナー契約により、HPE傘下でスパコンの老舗である米クレイに対してA64FXの外部供給を始めている。A64FXの外部供給は初めて。

富士通の時田隆仁社長は23日の会見で「今回の開発目標の一つは富岳の成果をグローバルに展開すること。富岳の成果を世界中に提供したい」と胸を張った。A64FX搭載のクレイ機は米国のロスアラモス国立研究所やオークリッジ国立研究所のほか英国のブリストル大学などが導入を検討中という。』

日本のスパコン「富岳」、8年半ぶり世界一奪還

https://www.nikkei.com/article/DGXMZO60655390S0A620C2MM8000/

『スパコンは核実験のシミュレーションなどにも使われ、国の科学技術力や安全保障に影響を及ぼす。先端技術を巡って覇権争いを演じる米中は1~2年以内に毎秒100京回の計算をこなす次世代のスパコンを投入してくる見通しだ。今回の首位を日本が獲得したのは、スパコンが世代交代の時期を迎えるなかで、米中より早く次世代機を投入できた面もある。

資金力で劣る日本が米中と同じ土俵で闘い続けるのは難しい。世界最速の称号は、むしろ富岳を活用してどう成果を生み出すかといった課題を日本に突きつける。

世界では次世代の高速計算機である量子コンピューターの開発も進む。デジタル技術が社会を変えるなか、日本として高速コンピューターの技術をどう開発し、活用していくか、中長期の戦略を描くことも必要になる。(AI量子エディター 生川暁、三隅勇気)』

富士通、富岳の技術が活きる“19.4PFLOPS”のスパコンをJAXAに納入

富士通、富岳の技術が活きる“19.4PFLOPS”のスパコンをJAXAに納入(中村 真司2020年4月23日)
https://pc.watch.impress.co.jp/docs/news/1249039.html

『 富士通株式会社は22日、を国立研究開発法人宇宙航空研究開発機構(JAXA)より、スーパーコンピュータ「FUJITSU Supercomputer PRIMEHPC FX1000」を受注したことを発表した。稼働は10月を予定。

 JAXAでは、航空機やロケットなどの研究における流体力学や構造力学などの数値シミュレーション、衛星が収集した地球観測データを研究者や一般利用者向けに加工したり、ディープラーニングの計算に活用したりするなどの目的で、スーパーコンピュータを利用しており、3,240ノードで構成される富士通のPRIMEHPC FX100などを使用している。

 今回JAXAは、理化学研究所が共同開発しているスーパーコンピュータ「富岳」の技術を活用したPRIMEHPC FX1000を5,760ノード導入し、倍精度(64bit)での理論演算性能で現行システムの約5.5倍となる19.4PFLOPSを実現する見込み。

FX1000は、Armアーキテクチャを採用するA64FXプロセッサを搭載。導入されるシステムのノートあたりの性能は3.3792TFLOPS、メモリは32GB。システムはTofuインターコネクトDで接続される。』
『また、大容量メモリやGPUを搭載し、さまざまな計算に対応可能な汎用システムとして、FUJITSU Server PRIMERGYシリーズを465ノード導入するほか、約10PB(ペタバイト)の高速アクセス記憶装置を含んだ、50PBの大容量ファイルシステムが構築される。』

富士通、Armを採用した“ポスト京”スパコンの製造開始(佐藤 岳大2019年4月15日)
https://pc.watch.impress.co.jp/docs/news/1180127.html

『富士通開発のCPU「A64FX」を搭載し、Armアーキテクチャにより、幅広いソフトウェアに対応する汎用性を持ち、超並列、超低消費電力、メインフレームクラスの高い信頼性などを実現するとしている。

 A64FXは、Armv8.2-A SVE命令セットアーキテクチャに基づいたCPUで、計算ノードは48コア+2アシスタントコア、IO兼計算ノードは48コア+4アシスタントコアという構成。2.7TFLOPS以上の倍精度演算性能を謳う。メモリ容量はHBM2 32GB(4スタック)、バンド幅は1,024GB/sで、インターコネクトには「TofuインターコネクトD」を採用する。』
『富士通では、ポスト京のハードウェア開発/製造、ソフトウェア開発において、オープンソースコミュニティと連携し、Armエコシステムの推進、オープンソースソフトウェアの活用、ポスト京で創出された成果の展開などを進めるとしているほか、ポスト京の開発を通じて培った技術を活かし、商用スーパーコンピュータの製品化を行ない、「FUJITSU Supercomputer PRIMEHPC FX100」の後継機として、2019年度下期にグローバルで販売開始を予定しており、導入しやすいエントリーモデルの開発、他ベンダーへの供給なども検討するとしている。』
『PRIMEHPC FX100の後継機では、1ラックあたり384ノードを収容し、ノードあたりA64FXを1基搭載。OSはLinuxで、HPCミドルウェアは「FUJITSU Software Technical Computing Suite」の後継ソフトが採用される見込み。』

よくある質問 – 筑波大学 計算科学研究センター Center for Computational Sciences
https://www.ccs.tsukuba.ac.jp/pr/ques/
『Q ノードとはなんですか。
A 「ノード」は「台」とほぼ同じ意味です。2560ノードは、コンピュータが2560台あると考えてください。』

用語集
http://www.nsc.riken.jp/project/yougoshu.html

 ※ 「5760ノードの納入」ってことは、コア数にすると、「48×5760=276480」コア…、ということだぞ…。これを全部稼働させて、「並列計算」していくわけだ…。凄まじい話しだ…。 これが、「スパコンの世界」だ…。ちなみに、オレのシステムは「4コア+4HT(仮想コア含めて、8コア)」だから、単純にコア数の計算だけでも276480÷8=34560倍だ…。目が眩んでくるな…。
 しかも、「能力が足りなければ」、さらに「発注して」「ノードを増大」すればいい…(収めるスペースの問題は、あるが…)。リース料金も、「何億/月」「何十億/月」という世界なんだろう…。
 ただ、こういう「電子計算機」は、どこまで行っても「発熱」と「電力供給」の問題がつきまとう…。とくに、「電力供給が途絶えた場合」には、どんな巨大なシステムであっても「巨大なガラクタの固まり」と化す…。阪神淡路や311、熊本大地震、千曲川の氾濫による水害、台風襲来による送電鉄塔の倒壊による停電…の例が、そういうことをまざまざと示している…。
 それと、ARMのアーキテクチャへの乗り換えからは、そういう「消費電力」と「パフォーマンス」のバランスの問題とか、商用展開にあたっての「縛り」の問題なんかが透けて見えるな…。「オープンソース」への舵切りとかからも、そういう方向性が見てとれる…。