ACUBE DL・Machine LEARING BOX AMD EPYC-MI25x4
ACUBE DL・Machine LEARING BOX AMD EPYC-MI25x4は、AMD EPYC CPU、AMD Radeon INSTINCT MI25を採用、Deep Learning用フレームワーク「Caffe」、「TensorFlow」をインストールしたDeep Learning、HPC向けGPUサーバ・システムです。
このシステムは、AMD ROCm が提供する、HIPCaffe, ROCm-TensorFlow 1.3を活用して、AMDプラットフォーム下において、深層学習研究において高効率で高いパフォーマンスを発揮できるよう Caffe , TensorFlowのDeep learning関連フレームワークを整合性と動作確認がとれた状態でプレインストールしております。
ハードウエアとしては、コアパーツであるGPUは最大4基まで搭載可能で、大量の学習データに効率良くアクセスするためにCUDA , cuDNN , cuca-convnet などのNVIDIAソフトウェアスタッグやをSSD高速ストレージにプレインストールしました。AMD社 最新のAMD EPYCプロセッサファミリーを搭載した2Uラックマウント型のシングルソケットのHPCサーバーで、最大4台のアクセラレータに対応しています。これにより、従来の2ソケットシステムの性能と機能を損なうことなく、最高レベルのFP16コンピューティング性能を実現します。これにより、ミッションクリティカルなアプリケーションを高速化する、比類のないパフォーマンスを実現します。
また、DeepLearning用フレームワークである「Caffe」、「TensorFlow」がインストールされていますので、最適な環境でGPUサーバ・システムを活用することが可能です。
![]() |
![]() |
![]() |
Radeon INSTINCTのサーバーアクセラレータ製品ファミリーは、メタルインテリジェンスとHPCシステムの異機種混在コンピューティング機能の新時代をもたらします。次世代の「Vega」アーキテクチャや、ROCmソフトウェアプラットフォームを介したデータセンター設計へのRadeon INSTINCTのオープンエコシステムアプローチなどの世界クラスのGPUテクノロジの導入により、より高度なデータセンターのパフォーマンスと効率が実現し、様々なシステムアーキテクチャのサポートと業界標準的な相互接続技術をもたらします。
Radeon INSTINCT製品ファミリーは、Deep LearningとHPCのデータセンターの新しい時代の構築ブロックとなるように設計されています。AMDは、Radeon INSTINCTのサーバアクセラレータ製品とソフトウェアプラットフォームを設計、最適化し、コスト効率の良いマシンと深い学習の推論、トレーニング、エッジトレーニングソリューションを提供しており、アクセラレータの高度な並列コンピューティング機能を最大限に活用できます。
Radeon INSTINCT製品は、学術、政府機関、エネルギー、ライフサイエンス、金融、自動車、その他の業界でデータ中心のHPCクラスのシステムにも理想的です。
Radeon INSTINCT MI25サーバアクセラレータは、14nm FinFETプロセスを採用した新しい「Vega」アーキテクチャに基づいており、データセンターサーバの導入に最適化された演算密度向けに設計されたプロフェッショナルレベルのアクセラレータです。MI25サーバアクセラレータは、ワットあたりの性能が重要なマシンインテリジェンスやディープラーニングなどのHPCクラスのワークロードで、単精度の計算集中型トレーニングアプリケーションに最適なソリューションです。
300W TDPボードパワー、フルハイト、デュアルスロット、10.5 "PCIe®Gen 3 x16 GPUサーバーカードRadeon INSTINCT MI25サーバーPCIe®Gen3 x16 GPUカードは、ほとんどの標準的なサーバーデザインに適合するように設計されたフルハイトのデュアルスロットカードで、異機種のマシンインテリジェンスやディープラーニングトレーニング、HPCクラスのシステム展開
最大484 GB / sのメモリ帯域幅を備えた超広帯域HBM2 ECCメモリRadeon INSTINCT MI25サーバアクセラレータは、最も要求の厳しいマシンインテリジェンスとディープラーニングニューラルネットワークトレーニングシステムのより大きなデータセット要件を効率的に処理するために、16GBの最新の高帯域幅HBM2メモリで設計されています。MI25アクセラレータの16GB ECC HBM2メモリは、データ集約型HPCクラスのワークロードに最適なソリューションです。
MxGPU SR-IOVハードウェア仮想化Radeon INSTINCT MI25サーバアクセラレータは、AMDのMxGPU SRIOVハードウェア仮想化テクノロジをサポートするように設計されており、データセンターの利用率と容量を向上させます。
更新されたリモート管理機能
Radeon INSTINCT MI25アクセラレータは、大規模システムでのGPU監視を簡素化するために、帯域外の管理性回路を進化させました。MI25の管理機能に関係なく、GPUが基板部の詳細を、シリアル番号、GPU温度、電力および他の情報を含むPMCI準拠したデータ構造を使用して、静的および動的GPU情報の範囲の高度な監視を提供しているI2Cを介してアクセスの可能性を提供します。

AMD EPYCは、最大32個のコア、8個のメモリー・チャネル、CPUあたり128レーンのPCIe® 3.0を搭載、かつては2ソケット・アーキテクチャーでのみ可能であった機能と性能をご利用いただけます。
Radeon Open Compute Platform (ROCm)
ROCmは、Radeon Open Compute Platformの略で、AMD Radeon を使用したGPGPU向けのプラットフォームであり、以下の特徴を備えます。
・高パフォーマンス 低レイテンシ・高スループットに最適化された基盤
・オープンソース プロフェッショナルGPGPUの完全なオープンソース
・ハイパースケール ノードからラックまでのマルチアクセラータを構築
ROCmの最大の特徴はオープンであることです、ですので誰でも利用が可能です。
そして、ROCmを使用する事で、著名な Deep Learning 向けフレームワーク(Caffe, TensorFlow 等)をAMD基盤上で動作させる事が可能となります。
AMDによるGPGPU、Deep Leaning、Mining
AMD GPUを使用した GPGPU、Deep Learning、Mining では、特に使用条件や環境制限はありません。
AMD GPUはデータセンターでもどこでも、どんな目的でも簡単に即ご利用になれます。
製品名 | ACUBE DL・Machine LEARING BOX AMD EPYC-MI25x4 |
型番 | AC-INV-P47G4L10-EP7551Px1-128G-480SSD-MI254 |
JANコード | 4537694259392 |
GPU | AMD Radeon INSTINCT MI25 ×4 |
フォームファクタ― | スライドレール付き2U1Nラックマウント |
プロセッサー |
シングルソケット; |
メモリスロット | 16x DDR4 DIMMスロット |
チップセット | SoC、128 PCIe Gen3レーン サポート |
ストレージ コントローラー |
オンボード: 最大8つのSATA3(6Gbps)ポート 最大2つのU.2 NVMe サポート 最大2つのM.2 NVMe サポート |
ネットワーク コントローラー |
10GbE/25GbE/100GbE Mezz カードサポート |
拡張スロット | 4x PCIe Gen3 x16 standard slot for GPU (Double-wide, FHFL) 1x PCIe Gen3 x16 for 100G NIC/IB (FHHL) 1x OCP 2.0 A+B slot for 100G NIC/IB (Front access, Option) |
ディスクドライブベイ | フロントプライマリベイ: オプション1: 8x 2.5” SATA3-6Gbs ホットプラグ HDD オプション2: 6x 2.5” SATA3-6Gbs ホットプラグ HDD + 2x NVMe SSD M.2 ソケット×2 サポート |
システム管理 | IPMI 2.0準拠 |
TPM | 2.0 |
電源 | 1 + 1冗長 オプション1: 1600W (220V) Platinum オプション2: 2000W (220V) Platinum |
ファン | 5 + 1冗長性 6056ホットスワップファン |
保証期間 | 1年間 |