GPGPU (General-purpose computing on graphics processing units; GPUによる汎用計算)とは、GPU の演算資源を画像処理以外に応用する技術である[ 1] [ 2] 。ビッグデータ などに対し大量の科学技術計算などを実行できるため、広く使われるようになった[ 3] 。2022年 、単一マシンとしては世界初のエクサスケールコンピュータ となった米HPE の「フロンティア 」にもベクトル計算用にAMD のGPUが搭載されるなど、世界最速を競うスーパーコンピュータ での利用も一般的である。
GPGPUは、GPUが持つベクトル計算機 としての特性を活かした汎用的なストリーム・プロセッシング の一形態である。GPUはコンピュータゲーム で多用されるリアルタイム画像処理 向けのデータ並列 計算とパイプライン処理 に特化した命令発行形態を持ち、またGPUとメインメモリ 間の帯域幅 は通例狭く[ 注釈 1] 、固定長レジスタしか扱えない[ 注釈 2] (後述)ものの、GPUと直結されるVRAM 間には十分広い帯域幅を備えておりSIMD やSIMT (英語版 ) による並列計算も行える[ 4] 。
GPGPUは制約はあるもののHPC の分野で注目される応用技術である。伝統的に構築されてきた、カスタムCPUとして開発されるベクトルプロセッサ を主体としたスーパーコンピュータと比較して、疎行列 で計算効率が低下する[ 注釈 3] 、可変長ベクトル命令が扱えずレジスタ長で割り切れない要素を別途考慮する必要があるという欠点はある[ 5] ものの、GPUを主体として計算機システムを構成する方がコストパフォーマンス が高くなることからHPC分野での導入が進んでいる[ 6] 。
しかし、GPU特有の制約は無くなりつつある。2023年現在ではプログラマブルシェーダー の発展によりCPUと同程度のプログラマビリティが実現されており、OpenCLなどを用いることでCPUとGPUでの相互で互換性を持ったプログラムを作成することも可能であることから[ 8] 、前述のランダムメモリアクセスに弱い、可変長ベクトル命令が利用できないという、伝統的なベクトルプロセッサと比較した場合の原理的な欠点以外については改善されてきている。
GPGPUブームまでの略史
最初の試みから一般的に使えるAPI が完成するまでに10年の歳月を要した。
1998年: SGIのグラフィックスワークステーションを用いた実験
GPUという製品カテゴリが登場する前年でプログラマブルシェーダーも存在しない1998年 に、Ian Buck[ 注釈 4] によりSGI O2 (英語版 ) R5000 とSGI Indigo2 (英語版 ) R4400 Maximum IMPACTのグラフィックスアクセラレータ で、OpenGL のフレームバッファ を漸化式 の各計算ステップ用に2枚用いた単純な流体計算の高速化が試みられ、実際に数倍程度は高速化された[ 9] [ 10] 。この当時のSGI のグラフィックスワークステーション にはジオメトリエンジン が独立したLSI チップとして搭載されており、後のGPUの原型とも言える構成となっていた[ 11] 。しかし固定機能シェーダーしか存在しなかったため非常に簡単なモデルしか計算できず、実用には程遠かった。
固定機能シェーダーを用いて流体計算を高速化する方法はGPGPUの着想時に試みられたのみであり、今日的なGPGPUの観点からすると極めて特殊でイメージが付きづらいため、下記にその研究で実行されたコードの引用[ 9] と各行の説明を示す。概要としてはOpenGLの標準機能の1つである2次元畳み込みフィルタを漸化式の各計算ステップにおける拡散の操作として転用することで、各領域の拡散の計算がハードウェアで並列化されるというアイデアとなっていた。下記のコードを見れば分かる通り、物理モデルを2次元畳み込みフィルタとして表現して標準機能に渡すことしかできず、今日的なGPGPUと比較すればブラックボックス な固定機能シェーダーに並列計算を任せるしかないため、全く自由が利かないことが分かる。またRGBの各色8bitを数値に割り当てるため、計算精度が重要な科学技術計算として8bitを超える精度で計算するためにはRGBの各色間での桁の繰り上がりなども実装する必要があったが、その際に大きなオーバーヘッド が生じて計算が非常に遅くなってしまうという問題があった。当時はIan Buck自身も、これらの実用に当たって許容できない制約を緩和するためには今後のグラフィックスハードウェアの進歩が必要であると述べている。
#define k .2 // 拡散係数の定義
/* 畳み込みフィルタの定義 */
float filter [] = {
0.0 , k , 0.0 ,
k , 1-4 * k , k ,
0.0 , k , 0.0
};
glConvolutionFilter2D ( filter ) // 畳み込みフィルタを設定
glEnable ( GL_CONVOLUTION ) // 畳み込みフィルタを有効化
glReadBuffer ( GL_FRONT ) // 読み込み側のフレームバッファ(1ステップの畳み込み計算における現ステップ(例えばtと置く)の値を保存するバッファ)
glDrawBuffer ( GL_BACK ) // 書き込み側のフレームバッファ(1ステップの畳み込み計算における次ステップ(例えばt+1と置く)の値を保存するバッファ)
... Draw any initial conditions ... // 任意の初期条件の描画
glRasterPos ( 1 , 1 ); // ピクセル操作のラスター位置を(x,y)=(1,1)に設定
/* 畳み込み計算の繰り返し実行 */
while ( 1 ) {
glCopyPixels ( 0 , 0 , Width , Height , GL_COLOR );
glxSwapbuffers ( dspy , wnd );
}
1999年-2000年: GPUとプログラマブルシェーダーの登場
続いて1999年 のGeForce 256 の発売によってジオメトリエンジンをグラフィックスアクセラレータに統合した「GPU」という製品カテゴリが登場し、2000年 11月9日にはアセンブリ言語 で128個の命令のみ記述可能な原始的なプログラマブルシェーダー(シェーダーモデル 1.x)が登場した。2002年 、GPUの固定機能シェーダーがプログラマブルシェーダーに置き換わったことでブレイクスルー が起きたと主張し、ムーアの法則を超える速度で進化するGPUのストリーム・プロセッサ としての未来を予感したIan Buckにより、再度GPUによるレイトレーシング計算の高速化についての論文が発表された[ 12] 。
2002年: シェーダーモデル2.0への進化
2002年 12月20日のシェーダーモデル2.0の登場により、GPUのプログラマブルシェーダーで従来より遥かに長い命令長と浮動小数点演算 が扱えるようになった直後の2003年 頃からGPGPUが大々的に試みられ始め、2004年 8月には世界初のGPGPU学会「GP2」(Workshop on General Purpose Computing on Graphics Processors)が開催された[ 13] 。しかし当時は画像処理専用に作られていたGPU特有の制約(演算精度の不足や仮想メモリが扱えないなど)について酷評が相次いでいた[要出典 ] 。またGPUメーカーは歩留まり向上のため画面表示に問題がなければ計算ミスがあってもGPUを出荷するため、計算ミスを起こすようなGPUを検品して排除する必要が生じた[要出典 ] 。
2007年: CUDAの提供開始
その後、2005年 にIan BuckらのチームがグラフィックスAPIを経由せずC言語ライクにGPGPUの処理を記述できるCUDA の開発に着手[ 10] し、2007年 7月にCUDA 1.0を提供開始したことで、以降2008年 頃からGPGPUが普及して行った[ 13] 。CUDAが有名になったことで、NVIDIA はGPGPUでトップランナーの地位を占めることになった。GPGPUは2010年代 前半以降のビッグデータブームや仮想通貨 ブーム、2010年代中盤以降の人工知能 ブームを下支えする存在となり、2020年代 にはブームのあまりの過熱ぶりにGPU製品の供給が不足する事態まで発生している[ 14] 。
概要
GPUは一般的に画像処理を専門とする演算装置であり、多くの場合、CPUと呼ばれる主演算装置の制御の下で用いられる動画信号生成専用の補助演算用IC である。動画像の実時間内での生成は高速な演算が要求されるが、その多くが定式化された単純な演算の繰り返しであるためハードウェア 化に向いており、GPUを設計している数社からは、高速なメモリ ・インタフェース 機能と高い画像演算能力を備えたIC製品のシリーズがいくつもリリースされている。GPUは民生用に大量生産されているため、スーパーコンピュータに用いられるベクトル型 のカスタムCPUからすれば非常に安価である[ 6] 。但し、GPGPUは完全なベクトル型として設計されていないx86 等の一般的なCPUのSIMD命令と比較して高い並列度を誇りスループット が高いが、バスアクセスのためにレイテンシ も大きくなることが欠点となる。従って、一定量のデータを常に流し込みながら計算させ続ける事が最も理想的な利用形態(ストリーム・プロセッシング)であり、逆にネットワークのパケット処理といった多数の小さいデータの各々に対して個別に処理を行う場合では効率は劇的に悪化する。
特に1990年代中盤以降は3D描画性能が劇的に向上し、それに伴いベクトル ・行列 演算を中心としたSIMD演算機の色彩が強くなってきた。2000年代に入ると、表現力の向上を求めて固定機能シェーダーからプログラマブルシェーダーへの移行が進み、演算の自由度・柔軟性(プログラマビリティ)が飛躍的に増した。そこでこれをグラフィックス・レンダリング のみならず、他の数値演算にも利用しようというのがGPGPUのコンセプトである。GPGPUのコンセプトは2000年代の実験期を経て、入力データをテクスチャデータに変換して画像用のシェーダーに処理させるという回りくどい工夫[ 15] が必要ない汎用計算用の言語やコンピュートシェーダー が開発された後、2010年 頃のビッグデータブームの波に乗り産業応用が開始され、2010年代半ばには一般化した。
上記の表は 1CPU, 1MIC, 1GPU に限定した表である。なおAMD Radeon R9 295X2やAMD FirePro S10000、NVIDIA GeForce GTX TITAN ZやNVIDIA Tesla K80のようなデュアルGPUソリューションは除外されている。
2015年現在、GPUの浮動小数点演算能力は単精度で8TFLOPS をオーバーした一方で、CPUはサーバー 向けでも単精度は1TFLOPS台に留まっている。GPUは構成が単純であるためにCPUよりも集積化の点で有利であることから浮動小数点演算での効率がよく、またGPU専用にローカル接続されたメモリIC (VRAM) とのバンド幅を広く備えるために、CPUと比べて性能比で安価かつ成長の伸び率が高い[ 18] 。さらにCPUよりも電力あたりの理論演算性能(ワットパフォーマンス、Performance per Watt )が高いのもGPUの特徴である。またGPUの主な使途がゲーム(PCゲーム )と動画 再生で、ゲームをしないユーザーにとって余り気味の資源ということもあって注目されている。
2015年現在におけるGPGPU対応のグラフィックスカード (グラフィックスチップ)単体製品すなわちディスクリートGPU (discrete GPU, dGPU) としては、NVIDIAのGeForceおよびQuadro シリーズや、AMDのRadeonおよびFireProシリーズなどが代表として挙げられる(ただし後述するGPGPU対応APIをサポートするのはDirectX 10世代以降の製品となる)。CPU統合型GPU (integrated GPU, iGPU) に関しては、NVIDIAのTegra シリーズ、AMDのAPU シリーズ、そしてインテル のHD Graphics シリーズなどがGPGPUに対応している。一方、GPGPU専用製品としては、NVIDIAのTeslaシリーズ、そしてAMDのFirePro Sシリーズ(旧FireStream シリーズ)が挙げられ、こちらは科学技術分野のHPC市場向けにも投入されるなど、従来のベクトル計算機からの置き換えを視野に置いた [独自研究? ] 製品展開が行なわれている。
GPGPUアプリケーション 開発の環境およびAPIとしては、ハードウェア内部構造自体が汎用性を増したDirectX 10世代の統合型シェーダーアーキテクチャGPUの登場以降、NVIDIAによるGPGPU専用の統合開発環境「CUDA」や、AMDによるGPGPU基盤「AMD Stream 」(旧称ATI Stream )、そしてクロノス・グループ による標準規格「OpenCL 」が現われ、GPGPU活用の幅が広がりつつある。
なお、DirectX (Direct3D /HLSL ) はバージョン11でGPUによる汎用演算用のステージであるコンピュートシェーダー(DirectCompute )を、またOpenGL/GLSL はバージョン4.3で同様のコンピュートシェーダーを導入する[ 19] など、グラフィックスAPIのほうにも従来のグラフィックスパイプライン に加えてGPGPU機能を活用するための変化が現れつつある。Metal やVulkan といった後発のローレベルグラフィックスAPIにも、コンピュートシェーダーが搭載されている。
その他、マイクロソフト の「C++ AMP 」や、PGI の「OpenACC 」[ 20] など、DirectCompute/OpenCL/CUDAといったローレベルAPIをバックエンドとしながら、従来のC /C++ やFortran におけるOpenMP に近い高レベル並列プログラミング環境を提供するアクセラレータ系ライブラリ ・言語拡張も出現している。
特徴と課題
GPUはメモリにシーケンシャルにアクセスし、かつ条件分岐の無い計算(演算密度の高い処理)に強い。そのような例に行列計算がある。苦手な物の代表として二分探索 がある。二分探索は条件分岐だらけなうえ、メモリにランダムアクセスする。ポインタ をたどる操作もメモリにランダムアクセスするため、連結リスト や木構造 なども苦手である。密行列は得意だが、疎行列は苦手で、東京大学情報基盤センター によると100倍遅い[ 21] 。グラフ計算においては、例えば最短経路問題 では、完全グラフ のような密グラフに対しては高速に計算できるが、頂点から数本しか辺が出ていないような疎グラフに対しては遅い[ 22] 。
条件分岐
GPUはシェーダープロセッサ(ストリームプロセッサ[ 23] 、ストリーミングプロセッサ[ 24] とも)と呼ばれる演算ユニットを多数持ち、複数のシェーダープロセッサをまとめてクラスタ としている。これらの演算器に命令を与えるインストラクション・ユニットはクラスタごとに1台しか無く、クラスタを構成するシェーダープロセッサはそれぞれ異なるデータを与えられ、そのデータに対して同じ命令内容を一度に実行する。このようなSIMD型データ処理は3次元演算やマルチメディア 処理に効果を発揮する一方で、命令中に条件分岐による分岐 が入るとオーバーヘッドがかさみ、途端に効率を落としてしまう。今日のCPUでは、このようなペナルティを最小限にするためにプリフェッチ/プリデコードや投機実行 /レジスタ・リネーミングといった機能を備えているが、GPUでは備えていない(限定的な条件付きで投機的実行を行なえるものもある。GPUでの動的分岐はDirectX 9.0c世代以降でようやく現実的になった[ 25] [ 26] )。またPC向けのGPUではシェーダープロセッサごとに分岐するためのプログラムカウンターを持たないため、条件分岐の際は個別に異なる命令を発行するのではなく、実際に命令を実行するか否かを分けるためのマスクレジスタを使って分岐する手法が採用されている[ 27] [ 28] 。
また、シェーダープロセッサ間でデータをやりとりする場合、遠くのデータバス を経由することになり、それがボトルネックとなってしまう。この点に関しては、DirectX 10世代の統合型シェーダーアーキテクチャ 以降のハードウェアに搭載されている、小容量だがプロセッサグループ内で共有することのできる高速なキャッシュメモリ (共有メモリ)を介することで、プロセッサグループ内でのデータ交換やメモリI/Oの効率を高めることができる[ 29] [ 30] 。
一般のアプリケーションで条件分岐が存在しないものは珍しく、こういった制約によってGPUはオフィススイート のようなアプリケーションの実行には不向きである。GPGPUの発展にはいかに効率を落とさず条件分岐を行なうかというのが1つの課題となっている。原理的にはシンプルなアルゴリズム構造を持ったプログラムによって、並列データ処理に最適化することがGPGPUの特長を最大限引き出すことにつながるといえる。
浮動小数点演算
単精度と倍精度
単精度浮動小数点 演算に関してはCPUをはるかに上回る理論演算性能とスケーラビリティ を持つGPUだが、倍精度浮動小数点 演算に関しては様相が異なる。もともとGPUが扱う多くの画像演算(特にリアルタイム3Dグラフィックス)では、整数演算や単精度の浮動小数点演算で足りてしまうために浮動小数点演算器は仮数部が24ビット 程度とそれほど広くなく、単精度の演算器で倍精度の浮動小数点演算を行なうには、分割して幾度も演算器を使う必要があり、性能を大きく落とす要因となる。なお倍精度対応が必須とされる科学技術計算分野を含めたHPC向けに設計された製品では、倍精度専用の演算器を搭載・有効化しているものもある[ 31] 。
AMDは2006年 に自社のGPU「R580 」をベースとした、単精度浮動小数点演算対応のストリームプロセッシング向け製品「AMD Stream Processor」(第1世代FireStream)を発表[ 32] 、続いて2007年 にR6xx コアを使用した業界初の倍精度浮動小数点演算対応HPC向けGPUである「FireStream 9170」(第2世代FireStream)を発売[ 33] した(ただし倍精度の理論演算性能は単精度の場合の1/5となる[ 34] )。また2008年 に発売されたRADEON HD 4850は1チップでは世界初の1TFLOPS(単精度)を達成し、このRADEON HD 4850にも使用されたR7xx コアを使用して低価格かつ高性能を売りに、HPC分野向けに第3世代FireStreamを発売[ 35] することになった。2010年 には、さらに高性能化した第4世代FireStreamを発売している。2014年に発売されたAMD FirePro S9100/S9150では倍精度演算性能が強化され、倍精度の理論演算性能は単精度の場合の1/2になっている[ 36] [ 37] 。
NVIDIAも、自社のGPU「G80 (英語版 ) 」をベースとした、単精度浮動小数点 演算対応のHPC向け製品「Tesla C870」を2007年 に投入、さらに2008年 に発売されたNVIDIA Tesla C1060で倍精度に対応したが、単精度933GFLOPSに比べて倍精度は1/12の78GFLOPSとなっており[ 38] 、倍精度演算性能が極端に低かった。2010年 に発売されたFermi (英語版 ) 世代のTesla 20シリーズ[ 39] [ 40] では倍精度演算性能が強化され、倍精度の理論演算性能は単精度の場合の1/2になったが、2012年 に発売されたKepler (英語版 ) 世代のTesla K20シリーズ[ 41] [ 42] 、2013年に発表されたK40[ 43] 、2014年に発表されたK80[ 44] [ 45] では倍精度の理論演算性能は単精度の場合の1/3となっている。
2020年現在でも、GPUにおける倍精度演算に関してはHPC向けを除き、省電力性能やゲーミング性能を重視・維持するために必要最低限の性能しか用意されないことが多い[ 注釈 5] 。また倍精度専用の演算ユニットでは単精度の演算を行なうことはできないため、単精度を優先するか、それとも倍精度を優先するかはチップ設計段階におけるトレードオフとなる。実際、NVIDIAのMaxwell (英語版 ) アーキテクチャのGPUでは前世代に存在した倍精度演算器が省略され、単精度演算器を使って倍精度演算を行なうため、倍精度演算のピーク性能は単精度演算の1/32となる[ 47] 。このため、HPC向け以外のGPUは倍精度の浮動小数点演算が不得意であると言える。
半精度
深層学習 の計算においては計算精度 が求められないことから、半精度(16ビット)の演算を高速で行えるようにハードウェア側の対応も進みつつある[ 注釈 6] [ 49] 。深層学習においては仮数部の細かさよりも値がオーバーフローしないほうが使いやすいというメリットのため、指数部を増やしたBF16(bfloat16 (英語版 ) )と呼ばれるフォーマットが考案され、一部のGPU[ 注釈 7] でサポートされている[ 50] 。
GPUから派生した分野特化型のプロセッサとして、ディープラーニングなどのAI計算能力に対して既存のGPUでは消費電力の大きさが問題になることから、計算精度を8ビットに抑えて、積和演算 に特化したTPU (テンソル・プロセッシング・ユニット)というプロセッサが実現されており、人工知能のアクセラレーターとして活用されている[ 51] 。バッテリー駆動が基本となるスマートフォン のSoC にも電力効率向上の必要性からAIアクセラレータ が搭載されている。
IEEE 754サポートおよびFMA命令
DirectX 11対応となるEvergreen世代以降のAMD GPU、およびFermi世代以降のNVIDIA GPUでは、浮動小数点の演算精度はIEEE 754 規格に準拠したものとなっている。なおNVIDIA GPUおよびAMD GPUでは融合積和演算 命令 (FMA) をサポートしているが、CPUで同じ内容の処理をFMAを使わず実行した場合と比べて、GPUによる演算結果が異なることもある[ 52] [ 53] [ 54] [ 55] [ 56] 。
メモリ
メモリ環境についても、演算入力は少数の格子点データと幾分大きなテクスチャ・データだけであり [疑問点 – ノート ] 、演算出力は画像1枚程度の大きさのピクセルごとに3色 [疑問点 – ノート ] のデータを保持しながら順次それらを送り出すだけで済むため、相応に大きな [疑問点 – ノート ] 外部の半導体メモリ (グラフィックスメモリ/ビデオメモリ/デバイスメモリ/VRAM)とかなり広い [疑問点 – ノート ] メモリバンド幅による接続で十分に対応しており、演算対象データの局所性が高いのでグラフィックスメモリと内部キャッシュによってデータの読み書き性能が向上すると同時に演算も途切れずに順次行える傾向が強い。
基本的にGPUは、配列構造の単純なデータを半精度/単精度程度の浮動小数点演算によって順番に処理することで2次元の動画像データを実時間内に生成することに特化しているため、それ以外の用途ではあまり高い性能は期待できない。リアルタイム画像処理専用ICの流用では、科学技術計算でも倍精度以上の浮動小数点演算(拡張倍精度・四倍精度など)を必要とするものや、演算の局所性が低いものではそれほど高い性能は得られない。リアルタイム画像処理専用ではなく、GPUから派生して新たに開発されたGPGPU用のICでは、倍精度浮動小数点演算やより広いメモリ空間に対応したものがあり、これらは広範な科学技術計算への利用が期待される。なお、コンシューマー向けの画像処理分野ではほとんど必要とされないメモリの冗長機構であるECC がHPC分野では必須とされるため、ICを共用する場合に制約となる[ 57] 。
共有メモリ
GPUによるVRAMへのアクセスは、複数のプロセッサ群によって並列的に発生するため、連続したメモリ領域に対するコアレスアクセス(coalesce access、≒シーケンシャルアクセス)を行なうことで効率化・高速化できる[ 58] 。NVIDIA GPUでは32のハードウェアスレッドを束ねるバッチ単位をWarp [ 59] と呼び、AMD GPUでは64のハードウェアスレッドを束ねるバッチ単位をWavefront [ 60] と呼んでいるが、これらのユニット内ではプロセッサが完全に同期して動作するため、バッチ単位ごとにまとめて連続領域にアクセス(コアレスアクセス)することで効率が良くなる。逆に言えば、バッチ単位内のスレッドがそれぞれ遠く離れたばらばらのアドレスにアクセスするような非コアレスアクセス(≒ランダムアクセス)は効率が悪くなる。
GPGPUの本質は、大量の演算器によって実現されるハードウェアマルチスレッド集合を用いたデータ並列演算により性能を稼ぐ点にある。例えばNVIDIA GPUのFermi/Keplerマイクロアーキテクチャでは、演算器の最小単位をCUDAコア (SP, streaming processor) と呼び、また複数のCUDAコアを束ねる単位をSMX (SM, streaming multiprocessor) と呼んでいるが、GPUでの演算は、複数のSMXに対して同一の命令を発行していき、各々のハードウェアスレッドに割り当てられたデータに対して並列的に演算を行なうスタイルとなる[ 30] 。またWarp単位内における各スレッドはすべて同一の命令を実行する(SIMT (英語版 ) )[ 61] 。基本概念としてはAMDのVLIW やGraphics Core Next といったGPUアーキテクチャにおいても同様である。
しかし、このGPGPUプログラミングが特に従来型のCPUプログラミングと異なる点は、共有メモリ(shared memory、シェアードメモリ)の存在である。共有メモリは小容量だが高速で、ユーザープログラマーが明示的に管理できるキャッシュメモリ(≒L1キャッシュ)の仕組みを果たし、複数のコアでデータを共有・交換する目的に使用できる。なお各APIにおいては、CUDAは共有メモリ、OpenCLはローカルメモリ、DirectComputeはグループ共有メモリ[ 62] 、そしてC++ AMPはタイル静的メモリ[ 63] という名称で、それぞれ同等機能を備えている。
例えばFermi/Keplerマイクロアーキテクチャでは、1SMXあたり最大48 KB の共有メモリを使用できるが[ 64] 、外部にあるDRAMにキャッシュなしでアクセスする場合と比べて、共有メモリのレイテンシは(スレッド間のバンクコンフリクトがないかぎり)100倍小さくなる。そのため、複数のスレッドから参照されるデータの一時書き込み場所として共有メモリを活用することにより、高速な並列アルゴリズム(たとえば高速に総和を求める並列リダクションなど)や、GPUプログラミングにおける高速化に必要なコアレスアクセス(≒シーケンシャルアクセス)を実現することができるとNVIDIAは説明している[ 65] 。しかしながら、最大でも48 KB しかない共有メモリというハードウェア制約がアルゴリズムの幅に制限をかけるため、共有メモリの存在はGPUプログラミングの難しさにもつながってしまう。また、共有メモリに読み書きする際、スレッド間の同期をとるための処理もプログラマーが明示的に記述する必要がある。
なお、インテルCPUのL2キャッシュメモリはL1キャッシュメモリに比べて容量が大きく、またプロセッサコア側に直結されているが、NVIDIA GPUのL2キャッシュメモリはL1キャッシュメモリに比べて容量がほとんど変わらず、またメモリ側に直結されているなど、データアクセス傾向の違いがハードウェア設計思想の違いにも反映されており、単純にキャッシュメモリの容量だけを比較して性能の優劣を決めることはできない[ 66] [ 67] [ 68] 。
接続バスの速度
コンピュータのマザーボード とdGPUを接続するPCI Express 規格は、CPU-システムメモリ間やGPU-ビデオメモリ間と比べてはるかに帯域幅が狭く、安易にGPGPUを導入しようとするとデータ転送がボトルネックとなって逆に性能の低下を招いてしまう可能性もありうる[ 69] 。この点に関しては、NVIDIAが開発した独自のインターコネクト技術であるNVLink [ 70] [ 71] などの解決策が模索されている。
開発およびチューニングの難しさと移植性
2015年現在、GPGPU対応プログラムの開発環境・APIとして代表的なものはCUDA、OpenCL、およびDirectComputeであり、GPGPU黎明期の開発環境に比べればはるかに開発しやすくなっている[ 72] ものの、依然としてアクセラレーターとなるハードウェアを意識したGPGPU特有のプログラミング知識が不可欠である。また、規格によってある程度標準化・抽象化されているとはいえ、いずれもデバイスとの通信を行なうローレベルのAPIを使いこなさなければならないなど、通常のC/C++やFortranを用いたソフトウェア開発とは次元の異なる難しさがあり、導入のハードルが高い。特にOpenCLとDirectComputeはハードウェアに共通にアクセスできるAPIを規定しているだけであり、CUDAよりもさらにローレベルの抽象度である。この点に関しては、アクセラレーターの存在を抽象化し、従来のCPUベース並列プログラミング用の共通規格OpenMPに近い高レベルプログラミング環境を提供するOpenACCやC++ AMPといった規格も徐々に整備されつつある[ 73] 。
CPU上で動作するプログラムは組み込み環境を除き、ライブラリも含めて高レベルに洗練された開発環境が整っていることが多い。例えばC++、Java 、C# 言語などの代表的な高級言語 では、単純な連続メモリの配列構造だけでなく、リンクリスト ・二分探索木 ・ハッシュテーブル といった基本的なデータ構造はプログラミング言語標準ライブラリで提供されていることがほとんどだが、GPUプログラミングの場合は高速に処理できないという理由から [要出典 ] 基本的には配列構造しか用意されていない。フォトンマッピング 手法の開発者であるWann Jensen博士によると、複雑なデータ構造をGPU上で扱おうとするとCPUよりもはるかに困難となる場合が多いと評されている[ 74] 。他にも、GPUプログラミング言語であるHLSL、GLSL、およびOpenCL CではC++テンプレートのようなジェネリックプログラミング 機能がサポートされないため、生産性が低い。なおBLAS やFFT に関しては、NVIDIAによるCUDA実装のcuBLAS[ 75] やcuFFT[ 76] 、およびAMDによるOpenCL実装のclMath (clBLAS, clFFT) [ 77] が存在する。そのほか、二分探索、ソート 、リダクション、スキャンといったよく使われるアルゴリズムに関しては、NVIDIAによるCUDA実装のC++テンプレートベース並列アルゴリズムライブラリThrust[ 78] や、AMDによるOpenCL/C++ AMP実装の同等ライブラリBolt[ 79] が存在するが、両者に互換性はない。
また、GPUで演算した結果をCPUで読み出して利用する場合、従来アーキテクチャではGPUメモリからCPUメモリへのデータ転送が必要となる。その逆もまた然りである。こうしたCPU-GPU間のメモリ転送にかかる処理時間およびプログラミング上の手間が、性能のボトルネックやソフトウェア開発の難しさにつながるという問題も抱えている。これは物理的にメモリが分離されているdGPUとCPUによる構成だけでなく、従来型のオンボードグラフィックスやCPU内蔵GPUといった、物理メモリを共有する構成においても同様である。CUDA[ 80] やOpenCL[ 81] にはソフトウェア(ドライバー)レベルでこの転送の手間を解決する仕組みとして統合メモリ (unified memory) 機能や共有仮想メモリ (shared virtual memory) 機能が用意されてはいるが、あくまでメモリ空間のアドレッシングを仮想化して転送処理を自動化するだけの仕組みであり、アプリケーションプログラマーが明示的に転送処理を記述してチューニング・最適化する場合と比べてパフォーマンス上の問題もある[ 82] 。この点に関しては、AMDが推進しているHSA (Heterogeneous System Architecture )[ 83] におけるhUMA (heterogeneous Uniform Memory Access) といった解決策が模索されている。
GPGPUプログラムの移植性に関しては、CUDAはNVIDIAハードウェア専用であり、また DirectCompute (DirectX) はMicrosoftプラットフォーム(Microsoft Windows 、Xbox One など)専用という制約がある。一方でOpenCLは、GPUだけでなく対応するあらゆるハードウェア・あらゆるプラットフォームへ展開できる高い移植性を持っているが、性能に関するポータビリティは必ずしも確保・保証されず、場合によってはデバイスやチップごとにコードをチューニングする必要がある[ 84] [ 85] [ 86] 。
適合分野
GPGPUで性能が向上するアプリケーションの例として、下記が挙げられる。
実際の演算内容としては、行列演算、配列のリダクション、およびフーリエ変換 などが挙げられる。
変わった例ではカスペルスキー・ラボ が現在 [いつ? ] Radeon HD 2900で行っている実証試験として、GPUのパワーを使ってセキュリティソフト による大まかなセキュリティチェックを行う機能を開発している。これによりCPUへの負担を減らすことができるとしている[1] 。
一方で、大量の条件分岐が伴う創薬研究や遺伝子解析のような用途にはスカラー計算機 が適しており、ベクトル計算機やGPGPUベースの計算機には向かないとされている[ 89] 。
実用ソフトウェアの登場
GPGPU技術の話題は、コンピュータ(特に資源やスペースの制約が強いパーソナルコンピュータ)の進化において2000年代 中盤までのトレンドであり課題であった。しかし、デモンストレーションばかりが先行し、実際に活用できるソフトウェアが発売されることはなかった。そもそも、CUDAやOpenCLなどの汎用APIや、それらに対応するDirectX 10世代の統合型シェーダーアーキテクチャGPUが出現するまでは、GPGPU開発環境は制約の強いリアルタイムグラフィックス向けのAPIやシェーディング言語 を直接利用したものか、もしくは研究機関が独自開発した固有のプログラミング言語基盤であり、ハードルも高く、決して開発効率や再利用性が良いとは言えなかった[ 90] [ 91] 。
2008年 秋から、S3 がGPUを利用したGPGPU用写真修正 ソフトウェア 「S3FotoPro」を発表[ 92] 、また動画編集加工ソフトでは動画エンコードソフトの代表格であるTMPGEnc がCUDAに対応した[ 93] ことを皮切りに、サイバーリンク のPowerDirector 7がCUDAとATI Streamに対応した[ 94] 。さらに、2009年 にはSuper LoiLoScope (Pixel Shader 2.0を活用) が発売[ 95] 、サイバーリンクがMediaShow Espresso (CUDAとATI Streamに対応) を発売している。GPGPUを利用した無料で利用可能な動画エンコードソフトとして、AMDのATI AVIVO (完全無料) やNvidiaのBadaboom (30日間無料体験版) 、MediacoderのCUDAエンコーダが挙げられる。
米アドビ はCreative Suite 4 (CS4) の一部製品においてCUDAベースのGPUアクセラレーションをサポートしていたが[ 96] 、2010年5月28日に発売[ 97] したCreative Suite 5 (CS5) においてGPGPUを正式にサポートした [要出典 ] 。CS5はOpenCLベースで開発されており、ほとんどすべての機能において [要出典 ] GPGPUによる演算を行うことができる。本来GPUは画像処理を得意とするため、画像処理を主体とする同社のアプリケーションへの適性は高い。また、After Effects CCでは、レイトレーシング エンジンにNVIDIA OptiX (英語版 ) を採用している[ 98] 。その他にも、V-Ray など、レイトレーシングのアクセラレータとしてGPUを活用しているレンダラーが存在する[ 99] 。AMDもOpenCLベースのレイトレーシングエンジンとして、Radeon ProRender (旧称AMD FireRender ) を開発・公開している[ 100] [ 101] [ 102] 。
オープンソース の統合型3DCG作成ソフトウェアBlender では、GI レンダリングエンジンであるCyclesにおいてNVIDIA CUDAによるGPUレンダリングが可能となっている。なお、バージョン2.6時点ではOpenCLによるGPUレンダリングも試験的に実装が進められている[ 103] 。また、Autodesk 3ds Max サブスクリプションなどに搭載されている物理ベースのGIレンダリングエンジンであるNVIDIA Irayでは、CUDAベースのGPUアクセラレーションが行なわれる[ 104] [ 105] [ 106] 。
その他、ビットコイン をはじめとした暗号通貨 の採掘処理にもGPUが使われている[ 107] 。
このように、学術・研究目的や産業用途以外にも、一般的なプロダクション向け・コンシューマー向けに関してもGPGPU技術を利用したソフトウェアが登場しており、GPGPUを一般の利用者が活用できる環境が整ってきたといえる。しかし、万能に処理をこなすCPUと比較して、GPUはピーキーな特性を持ち、ソフトウェア開発においてはパイプライン処理や並列計算等の知識だけでなく、ハードウェア仕様およびAPIの知識も必要になるため、未だにGPGPU活用のノウハウが一般化したとは言い難いという面もある。しかし、そうした特別な専門知識を要求される実装についてはライブラリ、フレームワーク 、処理連携先となるソフトウェアの背後に隠蔽するなど[ 注釈 10] して、一般的なアプリケーションを開発するソフトウェア技術者が内部の詳細を意識することなくGPGPUによる高速化を利用できるような配慮も行われている。
脚注
注釈
^ 処理を行うCPUと、データを置くメインメモリの間のバスの速度がコンピュータ 全体の計算性能の上限を規定することをフォン・ノイマン・ボトルネック と言う。GPUとメインメモリについても同様のボトルネックが発生するため欠点として挙げている。
^ つまり、固定長ベクトル命令しか扱えず、固定長レジスタの長さに一致しない端数のデータについて別途考慮が必要になるという問題が発生する。伝統的にスーパーコンピュータで多用されてきた専用設計のベクトルプロセッサであれば可変長ベクトル命令が扱え、端数のデータに対して別途考慮する必要がない上に効率よく計算が行えるため、GPUが採用する固定長レジスタは欠点となる。
^ 疎行列にアクセスする際に行われる、巨大な配列データを大域的にインデックス参照で引いてくるランダムメモリアクセスを多用する操作は、一般的なスカラ型のCPUやGPGPUにとってはフォン・ノイマン・ボトルネックにより苦手な処理となる。
^ 2005年 からNVIDIAに所属しており、CUDAを考案するなどGPGPUの第1人者として業界を牽引している。
^ NVIDIAのRTX30シリーズでは単精度と倍精度で演算器の個数に64倍の差があり、理論上の倍精度の演算性能も単精度の1/64となる[ 46]
^ 例えばGPGPU向けのTesla P100 では半精度での演算性能が2倍になるよう設計されている[ 48]
^ NVIDIA Ampere A100 など
^ Direct X9以前のシェーダーは固定機能の演算を提供するものであったが、DirectX 10以降のDirectComputeAPIではGPUをゲームなどでの汎用的な計算に用いることが可能なコンピュートシェーダーが利用できる[ 87] 。
^ 例としてゲームエンジンのUnreal Engine 4 やLuminous StudioのパーティクルシステムにおいてGPGPU技術の利用がある。
^ 例えばOpenACCやOpenMPなどを用いると並列処理用に書かれていない通常のC言語のソースに対して指示行を追加することでGPUに処理をオフロードすることが可能である[ 108]
出典
^ GPGPU | ビジネスパートナー | 東芝デジタルメディアエンジニアリング株式会社
^ GPGPUソリューション | HPCシステムズはすべての研究開発者に計算力を提供します。
^ Ando 2021 , p. 19.
^ “【後藤弘茂のWeekly海外ニュース】 NVIDIA次世代SoC「Xavier」は進化版DenverとVoltaを搭載 ”. PC Watch . 株式会社インプレス (2016年10月6日). 2023年6月19日 閲覧。
^ “プロセッサ開発のセンス ~第4回 ベクトル・プロセッサ~ | 株式会社エヌエスアイテクス (NSITEXE,Inc.) ” (2023年2月22日). 2023年6月18日 閲覧。
^ a b “「ベクトル型スパコンは高すぎる」、GPU利用のHPCが本格化 - @IT ”. atmarkit.itmedia.co.jp . 2023年6月21日 閲覧。
^ Ando 2021 , p. 213.
^ a b “Ian Buck | Research Projects ”. graphics.stanford.edu . 2023年5月30日 閲覧。
^ a b Alan Dang (2009年9月3日). “Exclusive Interview: Nvidia's Ian Buck Talks GPGPU ” (英語). Tom's Hardware . 2023年5月30日 閲覧。
^ “業界に痕跡を残して消えたメーカー CG業界を牽引したSGI (1/4) ”. ASCII.jp . 2023年5月30日 閲覧。
^ “Ray Tracing on Programmable Graphics Hardware ”. graphics.stanford.edu . 2023年5月30日 閲覧。
^ a b “2009年,本格始動するGPGPUの世界・前編~GPGPUって何? ”. 4Gamer.net . Aetas Inc. 2023年5月29日 閲覧。
^ “ビデオカードの品薄と価格高騰に振り回された1年、買い取り価格が購入時より高値になる事も ~ アキバのショップ店員が語る2021年 その2 ~ ”. AKIBA PC Hotline! . 株式会社インプレス (2022年1月24日). 2023年5月30日 閲覧。
^ 宮田一乘、高橋誠史、黒田篤「Gpuコンピューティングの動向と将来像」『芸術科学会論文誌』第4巻第1号、2005年、13–19頁、doi :10.3756/artsci.4.13 。
^ AMD Radeon™ R9シリーズ・グラフィックス・カード , 2 ops/cycle × 1050 MHz × 4096 cores.
^ AMD FirePro™ S9170サーバーGPU
^ GPGPUのキラーアプリケーションは「グラフィックス」 - @IT
^ 4Gamer.net ― OpenGLはDirectX 11を超え,OpenGL ESは据え置き型ゲーム機と同等以上に。Khronosの最新動向レポート
^ PGI GPU用アクセラレータコンパイラ 情報サイト - GPU / GPGPU / CUDA 対応、CUDA Fortran
^ これからの並列計算のためのGPGPU連載講座(V) 疎行列ベクトル積を題材としたCUDA最適化プログラミング
^ Harish, Pawan; Narayanan, P. J. (2007). “Accelerating large graph algorithms on the GPU using CUDA” . Lecture Notes in Computer Science (Springer Berlin Heidelberg) 4873 : 197-208. doi :10.1007/978-3-540-77220-0_21 . http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.102.4206 .
^ 【レビュー】549ドルのGeForce GTX TITAN対抗馬「Radeon R9 290X」をベンチマーク - PC Watch
^ 【4Gamer.net】[特集]「GeForce 8800」のポイントをブロックダイアグラムから探る
^ 【4Gamer.net】 - 西川善司の3Dゲームエクスタシー - ATI, Radeon X1000シリーズ発表でSM3.0世代に突入
^ 【後藤弘茂のWeekly海外ニュース】GTCの目玉の1つ「Tegra 4/4i」のCPUアーキテクチャ
^ Kepler GPUアーキテクチャとプログラム最適化 (2) GPUはどうやって命令を処理しているのか | マイナビニュース
^ 【後藤弘茂のWeekly海外ニュース】PlayStation 4で採用されたAMDのGCNアーキテクチャ
^ コンピュータアーキテクチャの話 (322) GPUが用いるメモリのアクセス時間の短縮方法 | マイナビニュース
^ a b 第5回 GPUの構造 | G-DEP
^ 4Gamer.net ― 「GeForce GTX TITAN」登場。500円玉より大きなモンスターGPUの“性能以外”を徹底解説
^ AMD、R580コアをベースにしたHPC専用プロセッサ「Stream Processor」 | マイナビニュース
^ AMDのGPGPU戦略は新章へ - ATI Streamの展望、DirectX Compute Shaderの衝撃 (1) Radeon HD 4000シリーズでネイティブGPGPU | マイナビニュース
^ AMD's RV670 does double-precision at half the speed | TG Daily
^ AMD FireStream™9250 - FirePro Server - 製品情報 - 株式会社エーキューブ
^ AMD FirePro S9100 - FirePro Server - 製品情報 - 株式会社エーキューブ
^ AMD FirePro S9150 - FirePro Server - 製品情報 - 株式会社エーキューブ
^ NVIDIA Tesla C1060 - 株式会社 日本コンピューティングシステム
^ Tesla C2050 / C2070 GPUコンピューティングプロセッサ
^ NVIDIA TESLA C2050 - 株式会社 エルザ ジャパン
^ 4Gamer.net ― NVIDIA,Keplerベースの新世代Teslaを発表。「GK110」コア採用の「Tesla K20」が年内に登場予定
^ NVIDIA Tesla K20 | 株式会社 エルザ ジャパン
^ NVIDIA、最上位GPUアクセラレータ「Tesla K40」を発表 | マイナビニュース
^ SC14 - NVIDIAが最上位の科学技術計算用GPU「Tesla K80」を発表 | マイナビニュース
^ “サーバー用のGPUアクセラレーター、Tesla K40 と Tesla K80 ”. NVIDIA Corporation. 2015年10月28日 閲覧。
^ “西川善司の3DGE:GeForce RTX 30シリーズのアーキテクチャを探る。CUDA Coreの増量とRT Coreの高性能化に注目だ ”. 4Gamer . 2023年6月21日 閲覧。
^ 大原雄介 (2015年3月18日). “【レビュー】NVIDIA GeForce GTX TITAN Xを試す - Maxwell世代の新フラグシップGPUの実力を探る (13) ベンチマーク結果「Basemark CL v1.1」 ”. マイナビニュース . 2015年11月26日 閲覧。
^ “【後藤弘茂のWeekly海外ニュース】コンピューティングとグラフィックスへ分化するNVIDIA GPU - PC Watch ”. 2023年6月20日 閲覧。
^ Ando 2021 , p. 148,150.
^ Ando 2021 , p. 304.
^ Ando 2021 , p. 306.
^ 後藤弘茂のWeekly海外ニュース: GeForce GTX 280の倍精度浮動小数点演算
^ 4Gamer.net ― AMD,世界初のDX11 GPU「ATI Radeon HD 5800」を発表。HD 4800の大幅な進化形
^ 4Gamer.net ― 「ATI Radeon HD 5800」徹底分析(3)~3Dグラフィックスに特化したAMD
^ 科学技術計算向け演算能力が引き上げられたGPUアーキテクチャ「Fermi」 (2) 科学技術計算向けのさまざまな工夫 | マイナビニュース
^ GTC 2014 - GPUの浮動小数点演算の精度:理論と実践(前編) | マイナビニュース
^ ハイブリッドアーキテクチャでスパコン市場に挑むNVIDIA - 後藤弘茂のWeekly海外ニュース(PC Watch, Impress社、2012年4月16日配信、2012年4月16日閲覧)
^ How to Access Global Memory Efficiently in CUDA C/C++ Kernels | Parallel Forall
^ 【後藤弘茂のWeekly海外ニュース】NVIDIA新世代GPU「Maxwell」のSMアーキテクチャ - PC Watch
^ 【後藤弘茂のWeekly海外ニュース】 AMDの新GPUアーキテクチャ「Graphics Core Next」の秘密
^ NVIDIA GPUの構造とCUDAスレッディングモデル
^ Variable Syntax (Windows)
^ tile_static Keyword
^ 高速演算記 第25回 「Kepler解説その2 〜Kepler世代の新機能〜」 | G-DEP
^ Using Shared Memory in CUDA C/C++ | Parallel Forall
^ コンピュータアーキテクチャの話 (336) CPUと異なるGPUにおけるコアと2次キャッシュの関係性 | マイナビニュース
^ コンピュータアーキテクチャの話 (337) 実はそれほど速くはないGPUのメモリアクセス時間 | マイナビニュース
^ 「Skylake-K」とはいかなるCPUなのか。「Core i7-6700K」ベンチマークで新世代マイクロアーキテクチャの実態を探る - 4Gamer.net
^ 【1カ月集中講座】骨まで理解するPCアーキテクチャ(GPU編) 第4回 ~GPGPU性能引き上げのカギとなるCPUとGPUの連携 - PC Watch
^ 【後藤弘茂のWeekly海外ニュース】NVIDIAの次期GPU「Pascal」の概要 - PC Watch
^ [GTC 2016]西川善司の3DGE:Teslaとして登場した新世代GPU「Pascal」,その詳細に迫る - 4Gamer.net
^ » アクセラレータプログラミングの未来
^ 4Gamer.net ― 見えてきたAMDの次世代GPUアーキテクチャ。なぜAMDはVLIWを捨てるのか
^ レンダリング手法について-CPU or GPU? | KeyShot™総合サイト
^ cuBLAS - NVIDIA CUDA ZONE
^ cuFFT - NVIDIA CUDA ZONE
^ clMath - AMD
^ Thrust - NVIDIA CUDA ZONE
^ Bolt C++ Template Library - AMD
^ スパコン最大の学会「SC13」に見る先端技術 (5) SC13 - CPU-GPU統一メモリを実現したCUDA 6(後編) | マイナビニュース
^ OpenCL* 1.2 の活用: インテル® プロセッサー・グラフィックスでバッファーコピーを最小限に抑えてパフォーマンスを向上する方法 | iSUS
^ NVIDIA CUDA 6.0 Unified Memory Performance | Acceleware Ltd.
^ 【後藤弘茂のWeekly海外ニュース】AMD、新GPU「Tonga」がHSAの最終形であることを明らかに - PC Watch
^ » コンパイラ、そしてもっと:アクセラレーター・プログラミング
^ KAKEN - GPUによるFFT計算の自動チューニング手法の研究(22680002) - 2011年度研究実績報告書
^ GPUとXeon Phi、どちらが計算処理アクセラレータに最適か? - 実際の実行性能を比較するワークショップを首都大学東京が開催 (4) アクセラレータの課題と問題点が語られたパネルディスカッション | マイナビニュース
^
清原隆行『HLSL シェーダーの魔導書 シェーディングの基礎からレイトレーシングまで』翔泳社、2021年6月9日、454頁。
^ ベクトル型スパコンの存在意義――地球シミュレータのいま (1/2) - ITmedia エンタープライズ
^ "これからの並列計算のためのGPGPU連載講座(I) GPUとGPGPUの歴史と特徴", 東京大学情報基盤センター, 大島聡史
^ SIGGRAPH 2005 - GPUをCPU的に活用するGPGPUの可能性 (5) GPGPU向けプログラミング言語の登場が始まる | マイナビニュース
^ S3、GPGPU用フォトレタッチソフト「S3FotoPro」 - PC Watch(2008年10月20日)
^ ペガシス、「TMPGEnc 4.0 XPress」の“CUDA”テクノロジー対応版を正式公開 - 窓の杜(2008年10月30日)
^ CyberLink、動画編集ソフト「PowerDirector 7」をCUDAに対応 - PC Watch(2008年11月10日)
^ LoiLo、GPGPU対応の高速動画編集ソフト - PC Watch(2008年10月17日)
^ 4Gamer.net ― NVIDIA製GPUが「Photoshop」「After Effects」「Premiere Pro」の最新版「CS4」アクセラレーションをサポート。ムービーでその効果をチェック
^ ZDNet Japan Staff (2010年4月12日). “アドビ、クリエイティブ製品の最新版「CS5」を5月28日に一斉発売 ”. CNET Japan. 2010年8月18日 閲覧。
^ GPU changes (for CUDA and OpenGL) in After Effects CC (12.1) | After Effects region of interest
^ GPUレイトレーシング | NVIDIA
^ [SIGGRAPH 2014]NVIDIAがゲーム向けのリアルタイム大局照明,IntelはHaswell用DX12ドライバのデモを一般展示セクションで披露 - 4Gamer.net
^ AMDは新GPU「Radeon Pro」を,NVIDIAは360度ビデオ用SDKをアピール。プロセッサメーカーによる「SIGGRAPH 2016」の展示をレポート - 4Gamer.net
^ Radeon ProRender Technology - AMD
^ Doc:JA/2.6/Manual/Render/Cycles/GPU Rendering - BlenderWiki
^ NVIDIA iray | NVIDIA
^ NVIDIA iray - Design Rendering with CUDA Parallel Processing | NVIDIA
^ NVIDIA Advanced Rendering: NVIDIA Iray
^ Bitcoinマイニングはまさに軍拡競争、素人お断りの現状とは? - GIGAZINE
^ Ando 2021 , p. 232.
参考文献
関連項目
代表的なGPGPU対応ハードウェア
GPGPU基盤・プログラミング言語・APIなど
採用事例
その他