狠狠撸

狠狠撸Share a Scribd company logo
GTC 2017 での発表内容まとめ NEWS
SILICON VALLEY MAY 8-11, 2017
日本版
GTC 2017の AI?ディープラーニング関連発表のまとめ
日本版
v1.3
世界最大の GPU 技術イベント GTC 2017 が盛況のうちに閉幕
GTC は年に一度の GPU 技術イベントです。今年は5月8日から11日までカリフォルニア州サンノゼで開催され、
7000 人以上の開発者、研究者、メディア関係者が 60 カ国以上から参加しました。全体で 600 に及ぶ
テクニカルセッション、150 の展示ブース、67 のハンズオンラボ、世界中から応募された 178 枚のポスターなど
盛りだくさんの内容で、活発な発表や情報交換が行われました。日本では、 2017年12月12~13日に
GTC Japan 2017 を実施します。ぜひご参加ください。
新アーキテクチャ Volta と Tesla V100 そして CUDA 9
Volta アーキテクチャと、その最初の製品である NVIDIA Tesla V100 が発表されました。
? 新しい Streaming Multiprocessor (SM): Pascal 比でエネルギー効率 50% 向上の新 SM を
80 基、CUDA コア数は 5120 と P100 の 1.4 倍。FP32: 15 TFlops, FP64: 7.5 TFlops。
? Tensor コア: FP16 行列の積和演算に特化した演算器を 640 基装備。120 Tensor TFlops!
? 第二世代の NVLink: 片方向 25GB/s のリンクを 6 本、双方向の合計で 300 GB/s の帯域。
? さらに速くなった HBM2: Pascal の 732GB/s に対し 900GB/s へと高速化。
詳細はこちら:
? S7798 - INSIDE VOLTA
? Inside Volta: The World’s Most Advanced Data Center GPU
? S7285 - UNIFIED MEMORY ON THE LATEST GPU ARCHITECTURES
? S7132 - CUDA 9 AND BEYOND
? CUDA 9 Features Revealed: Volta, Cooperative Groups and More
? S7622 - A ROBUST AND SCALABLE CUDA PARALLEL PROGRAMMING MODEL
Tesla V100 搭載の DGX-1 と水冷ワークステーション DGX Station
昨年の GTC で登場した Tesla P100 搭載サーバー “DGX-1” も Volta 世代にアップグレードされました。
Tesla V100 を 8 基搭載する DGX-1 with Volta は、FP64 演算性能が 60 TFLOPS, Tensor コアを
活かした FP16行列演算性能は 960 Tensor TFLOPS に達します。
また、新たに登場した “DGX Station” は Tesla V100 を 4 基搭載する「パーソナル DGX」です。
デスクサイドにおける大きさで(車輪付きでコロコロ動かせます)水冷方式により動作音は 35db 未満
という極めて静粛なワークステーションです。Volta のパワーをあなたのデスクに。
詳細はこちら: DGX Systems, DGX-1 データシート, DGX Station データシート
NVIDIA GPU Cloud
NVIDIA GPU Cloud は、ディープラーニングに最適化された GPU クラウドプラットフォームです。各種のディープラーニング
フレームワークや cuDNN, NCCL, TensorRT 等のライブラリ?ツールを “NGC Deep Learning Stack” として統合し、
Docker コンテナの形で提供します。
ユーザーはこのコンテナを自分の PC や DGX Station, DGX-1 で利用できる他、NVIDIA 自身が提供する計算環境、
及び各種のパブリッククラウド上で実行することができます。これによって、ディープラーニングの学習及び推論環境の
構築?運用コストを大きく削減できます。
GTC 2017 の基調講演で実施されたデモでは、NVIDIA の DGX SATURNV と、AWS、Microsoft Azure が計算環境
の選択肢として表示されていました(現時点でのデモであり、実際に提供されるサービスそのものではありません)
NVIDIA GPU Cloud は7月にベータサービスの開始が予定されています。
詳細はこちら: NVIDIA GPU Cloud
NVIDIA とトヨタ自動車、自動運転車の市場導入加速に向けてコラボレーション
GTC 2017 の基調講演において、NVIDIA の CEO ジェンスン?フアンはトヨタ自動車株式
会社と協業し、同社が今後数年以内の市場導入を見込んでいる自動運転システムの
性能を高めるための、人工知能 (AI) によるハードウェアとソフトウェアのテクノロジを提供
することを発表しました。
トヨタ自動車の鯉渕健常務理事は、次のように述べています。「トヨタは、究極目標とし
ての交通事故死傷者ゼロへの貢献、スムースな交通流の実現、すべての人に移動手段
を提供することを目的に、これまで 20 年以上にわたり自動運転技術の開発に取り組ん
できました。今回のコラボレーションを通じて、より安全で性能の高い自動運転システムの
開発を加速していきたいと考えています。」
詳細はこちら: NVIDIA とトヨタ自動車、自動運転車の市場導入加速に向けてコラボレーション
Facebook: https://www.facebook.com/NVIDIAGPUComputing/
Twitter: @NVIDIAAIJP / @NVIDIAJapan
狠狠撸Share からこの資料をダウンロード
日本から投稿されたポスターが TOP5 に
今年は全 178 ポスターから選ばれる TOP 5 に日本からの投稿がランク
インしました。海外浩平さんの “P7130: An Intelligent Storage for
PostgreSQL Database” です。
これは SSD に格納されている PostgreSQL のデータを GPU メモリに直
接転送し、そこで SQL の WHERE句/JOIN/GROUP BYを実行すること
で I/O を削減するというものです。MapD や Kinetica といった GPU 対
応データベースとは異なり、既存の DBMS を GPU で高速化するという
ユニークな取り組みです。
Apache Spark での GPU 活用
S7168 - LEVERAGE GPU ACCELERATION FOR YOUR PROGRAM ON APACHE SPARK
高速なビッグデータ処理基盤として注目を集める Apache Spark の処
理に GPU を活用する取り組みが、IBM 東京基礎研究所の石崎様か
ら発表されました。Spark ランタイムレベルで GPU に対応することで、
ユーザーは低レベルな CUDA プログラミングを行うことなく、通常の
Spark と同じ利用方法で、 GPU による高速化の恩恵を受けることがで
きます。POWER8 CPU と Tesla P100 を NVLink 接続した IBM
Power System S822LC での検証で、Spark による行列演算が 2 倍
近く高速化されたといった検証結果が報告されました。
松岡教授 TSUBAME3 と ABCI を語る
S7813 - SCALABLE LEARNING PLATFORM
HPE の GOH 様と、東京工業大学 松岡 聡 教授のお二方が、これか
らの AI と HPC を支えるプラットフォームについて語りました。
松岡教授は、ビッグデータ処理や AI ワークロードを処理できる、総合的
な性能を高めたスーパーコンピューターが必要であると述べ、まさに現在
構築中の TSUBAME 3.0 や、産業技術総合研究所 人工知能研究
センターの ABCI (AI Bridging Cloud Infrastructure) を解説しました。
DGX SATURNV の作り方
S7750 - THE MAKING OF DGX SATURNV
2016 年 11 月の Green 500 で首位を獲得した「世界で最もエネル
ギー効率の高いスーパーコンピューター」である NVIDIA DGX SATURNV
の構築秘話が、Linpack を実行した本人から語られました。ストレージ
やネットワーク構成の具体的な解説や、CPU/GPU/メモリ/InfiBand
全てのアフィニティを意識すること、割り込みを処理する CPU コア 0 と
20 を空けておくこと、といった実践的な Tips が多く含まれ、聴衆の関心
を集めていました。
クラウド各社との協業と Volta 版 HGX-1
NVIDIA はパブリッククラウド各社との協業を積極的に進めており、AWS, Google Cloud Platform,
Microsoft Azure, IBM Cloud, Alibaba, Baidu といった主要各社から GPU サーバーが提供されています。
GTC 2017 の基調講演には、 AWS のAWS の AI 担当 GM である Dr.Matt Wood が登壇し、「EC2 での
Tesla V100 サポート」、「Deel Learning Institute を共同で推進」といった今後の協業内容を発表しまし
た。続いて Microsoft からは Azure 担当の CVP である Jason Zander 氏が登壇、同社の Cognitive
Services 等の AI 関連サービスや Azure 上での Tesla P100 及び Tesla P40 GPU 搭載インスタンスの
投入等、積極的な GPU 活用を紹介しました。
また、 NVIDIA はクラウドサービスプロバイダ向けの GPU 拡張筐体である HGX-1 の Tesla V100 対応版を
発表しました。これは CPU と GPU の割り当てを細かく変更することが可能で、クラウド環境に求められる迅
速かつ柔軟な構成変更という要件を満たすものです。
本田技術研究所 NVIDIA GRID 事例
S7390 - GPU-ACCELERATED VDI FOR CAR DESIGN ENVIRONMENTS
本田技術研究所様では、多くのユーザーが各自のワークステーション
(EWS)を利用しており、騒音や熱、メンテナンスの面で課題がありました。
ここで紹介された「次世代 EWS プロジェクト」では、NVIDIA GRID テクノ
ロジによる仮想ワークステーションでこの課題を解決しました。ユーザーは
自席に縛られることなく、どの場所からでも通常の PC を使って最新の設
計データにアクセスでき、データが一元化されることで、高いセキュリティも
同時に確保されました。
NVIDIA Japan ブログでの解説もご覧ください。
GTC 2017 注目セッションのご紹介
600 近いテクニカルセッションの中から、ほんの一部ですが概要を紹介します。録画は、後日 http://www.gputechconf.com/ で公開されます。
ゼンリン HD マップ事例
S7656 - ACCELERATING HD MAP CREATIONS WITH GPUS
NVIDIA の GPU テクノロジと DriveWorks、MapWorks を活用し、
ゼンリンの高精度地図整備プロセスを加速した事例の発表です。
GPU の 活 用 方 法 や 、 ゼ ン リ ン の 高 精 度 地 図 デ ー タ を 使 っ た
Localization のデモ、US の学習データで作られた DRIVENET の日本
での検証結果、今後の展望など、興味深い考察が述べられました。
会場では多数の質疑応答があり、大盛況のセッションとなりました。
Volta に最適化された NVIDIA ディープラーニングソフトウェア
Caffe, TensorFlow, MXNet といった主要なディープラーニングフレームワークは、GPU によるモデルのトレーニング及び
推論の高速化に対応しており、そのために cuDNN, cuBLAS, cuSPARSE, NCCL, TensorRT, DeepStream SDK と
いった NVIDIA Deep Learning SDK を使っています。
これらのライブラリも、Volta アーキテクチャに合わせて更新されました。
cuDNN 7: Pascal 比で Caffe2 での CNN トレーニングが 2.5 倍、 MXNet での RNN トレーニングが 3 倍高速に。
NCCL 2: NCCL はバージョン2で Volta に対応。
TensorRT 3: P100 比で ResNet50 の推論処理が 3.5 倍高速に。
また、各種ディープラーニングフレームワークに対応した Web インタフェースである NVIDIA DIGITS も進化しています。
DIGITS: TensorFlow をサポート。新たなトレーニング済みモデルをサポート: VGG-16, ResNet50, DetectNet

More Related Content

GTC17 NVIDIA News

  • 1. GTC 2017 での発表内容まとめ NEWS SILICON VALLEY MAY 8-11, 2017 日本版 GTC 2017の AI?ディープラーニング関連発表のまとめ 日本版 v1.3 世界最大の GPU 技術イベント GTC 2017 が盛況のうちに閉幕 GTC は年に一度の GPU 技術イベントです。今年は5月8日から11日までカリフォルニア州サンノゼで開催され、 7000 人以上の開発者、研究者、メディア関係者が 60 カ国以上から参加しました。全体で 600 に及ぶ テクニカルセッション、150 の展示ブース、67 のハンズオンラボ、世界中から応募された 178 枚のポスターなど 盛りだくさんの内容で、活発な発表や情報交換が行われました。日本では、 2017年12月12~13日に GTC Japan 2017 を実施します。ぜひご参加ください。 新アーキテクチャ Volta と Tesla V100 そして CUDA 9 Volta アーキテクチャと、その最初の製品である NVIDIA Tesla V100 が発表されました。 ? 新しい Streaming Multiprocessor (SM): Pascal 比でエネルギー効率 50% 向上の新 SM を 80 基、CUDA コア数は 5120 と P100 の 1.4 倍。FP32: 15 TFlops, FP64: 7.5 TFlops。 ? Tensor コア: FP16 行列の積和演算に特化した演算器を 640 基装備。120 Tensor TFlops! ? 第二世代の NVLink: 片方向 25GB/s のリンクを 6 本、双方向の合計で 300 GB/s の帯域。 ? さらに速くなった HBM2: Pascal の 732GB/s に対し 900GB/s へと高速化。 詳細はこちら: ? S7798 - INSIDE VOLTA ? Inside Volta: The World’s Most Advanced Data Center GPU ? S7285 - UNIFIED MEMORY ON THE LATEST GPU ARCHITECTURES ? S7132 - CUDA 9 AND BEYOND ? CUDA 9 Features Revealed: Volta, Cooperative Groups and More ? S7622 - A ROBUST AND SCALABLE CUDA PARALLEL PROGRAMMING MODEL Tesla V100 搭載の DGX-1 と水冷ワークステーション DGX Station 昨年の GTC で登場した Tesla P100 搭載サーバー “DGX-1” も Volta 世代にアップグレードされました。 Tesla V100 を 8 基搭載する DGX-1 with Volta は、FP64 演算性能が 60 TFLOPS, Tensor コアを 活かした FP16行列演算性能は 960 Tensor TFLOPS に達します。 また、新たに登場した “DGX Station” は Tesla V100 を 4 基搭載する「パーソナル DGX」です。 デスクサイドにおける大きさで(車輪付きでコロコロ動かせます)水冷方式により動作音は 35db 未満 という極めて静粛なワークステーションです。Volta のパワーをあなたのデスクに。 詳細はこちら: DGX Systems, DGX-1 データシート, DGX Station データシート NVIDIA GPU Cloud NVIDIA GPU Cloud は、ディープラーニングに最適化された GPU クラウドプラットフォームです。各種のディープラーニング フレームワークや cuDNN, NCCL, TensorRT 等のライブラリ?ツールを “NGC Deep Learning Stack” として統合し、 Docker コンテナの形で提供します。 ユーザーはこのコンテナを自分の PC や DGX Station, DGX-1 で利用できる他、NVIDIA 自身が提供する計算環境、 及び各種のパブリッククラウド上で実行することができます。これによって、ディープラーニングの学習及び推論環境の 構築?運用コストを大きく削減できます。 GTC 2017 の基調講演で実施されたデモでは、NVIDIA の DGX SATURNV と、AWS、Microsoft Azure が計算環境 の選択肢として表示されていました(現時点でのデモであり、実際に提供されるサービスそのものではありません) NVIDIA GPU Cloud は7月にベータサービスの開始が予定されています。 詳細はこちら: NVIDIA GPU Cloud NVIDIA とトヨタ自動車、自動運転車の市場導入加速に向けてコラボレーション GTC 2017 の基調講演において、NVIDIA の CEO ジェンスン?フアンはトヨタ自動車株式 会社と協業し、同社が今後数年以内の市場導入を見込んでいる自動運転システムの 性能を高めるための、人工知能 (AI) によるハードウェアとソフトウェアのテクノロジを提供 することを発表しました。 トヨタ自動車の鯉渕健常務理事は、次のように述べています。「トヨタは、究極目標とし ての交通事故死傷者ゼロへの貢献、スムースな交通流の実現、すべての人に移動手段 を提供することを目的に、これまで 20 年以上にわたり自動運転技術の開発に取り組ん できました。今回のコラボレーションを通じて、より安全で性能の高い自動運転システムの 開発を加速していきたいと考えています。」 詳細はこちら: NVIDIA とトヨタ自動車、自動運転車の市場導入加速に向けてコラボレーション
  • 2. Facebook: https://www.facebook.com/NVIDIAGPUComputing/ Twitter: @NVIDIAAIJP / @NVIDIAJapan 狠狠撸Share からこの資料をダウンロード 日本から投稿されたポスターが TOP5 に 今年は全 178 ポスターから選ばれる TOP 5 に日本からの投稿がランク インしました。海外浩平さんの “P7130: An Intelligent Storage for PostgreSQL Database” です。 これは SSD に格納されている PostgreSQL のデータを GPU メモリに直 接転送し、そこで SQL の WHERE句/JOIN/GROUP BYを実行すること で I/O を削減するというものです。MapD や Kinetica といった GPU 対 応データベースとは異なり、既存の DBMS を GPU で高速化するという ユニークな取り組みです。 Apache Spark での GPU 活用 S7168 - LEVERAGE GPU ACCELERATION FOR YOUR PROGRAM ON APACHE SPARK 高速なビッグデータ処理基盤として注目を集める Apache Spark の処 理に GPU を活用する取り組みが、IBM 東京基礎研究所の石崎様か ら発表されました。Spark ランタイムレベルで GPU に対応することで、 ユーザーは低レベルな CUDA プログラミングを行うことなく、通常の Spark と同じ利用方法で、 GPU による高速化の恩恵を受けることがで きます。POWER8 CPU と Tesla P100 を NVLink 接続した IBM Power System S822LC での検証で、Spark による行列演算が 2 倍 近く高速化されたといった検証結果が報告されました。 松岡教授 TSUBAME3 と ABCI を語る S7813 - SCALABLE LEARNING PLATFORM HPE の GOH 様と、東京工業大学 松岡 聡 教授のお二方が、これか らの AI と HPC を支えるプラットフォームについて語りました。 松岡教授は、ビッグデータ処理や AI ワークロードを処理できる、総合的 な性能を高めたスーパーコンピューターが必要であると述べ、まさに現在 構築中の TSUBAME 3.0 や、産業技術総合研究所 人工知能研究 センターの ABCI (AI Bridging Cloud Infrastructure) を解説しました。 DGX SATURNV の作り方 S7750 - THE MAKING OF DGX SATURNV 2016 年 11 月の Green 500 で首位を獲得した「世界で最もエネル ギー効率の高いスーパーコンピューター」である NVIDIA DGX SATURNV の構築秘話が、Linpack を実行した本人から語られました。ストレージ やネットワーク構成の具体的な解説や、CPU/GPU/メモリ/InfiBand 全てのアフィニティを意識すること、割り込みを処理する CPU コア 0 と 20 を空けておくこと、といった実践的な Tips が多く含まれ、聴衆の関心 を集めていました。 クラウド各社との協業と Volta 版 HGX-1 NVIDIA はパブリッククラウド各社との協業を積極的に進めており、AWS, Google Cloud Platform, Microsoft Azure, IBM Cloud, Alibaba, Baidu といった主要各社から GPU サーバーが提供されています。 GTC 2017 の基調講演には、 AWS のAWS の AI 担当 GM である Dr.Matt Wood が登壇し、「EC2 での Tesla V100 サポート」、「Deel Learning Institute を共同で推進」といった今後の協業内容を発表しまし た。続いて Microsoft からは Azure 担当の CVP である Jason Zander 氏が登壇、同社の Cognitive Services 等の AI 関連サービスや Azure 上での Tesla P100 及び Tesla P40 GPU 搭載インスタンスの 投入等、積極的な GPU 活用を紹介しました。 また、 NVIDIA はクラウドサービスプロバイダ向けの GPU 拡張筐体である HGX-1 の Tesla V100 対応版を 発表しました。これは CPU と GPU の割り当てを細かく変更することが可能で、クラウド環境に求められる迅 速かつ柔軟な構成変更という要件を満たすものです。 本田技術研究所 NVIDIA GRID 事例 S7390 - GPU-ACCELERATED VDI FOR CAR DESIGN ENVIRONMENTS 本田技術研究所様では、多くのユーザーが各自のワークステーション (EWS)を利用しており、騒音や熱、メンテナンスの面で課題がありました。 ここで紹介された「次世代 EWS プロジェクト」では、NVIDIA GRID テクノ ロジによる仮想ワークステーションでこの課題を解決しました。ユーザーは 自席に縛られることなく、どの場所からでも通常の PC を使って最新の設 計データにアクセスでき、データが一元化されることで、高いセキュリティも 同時に確保されました。 NVIDIA Japan ブログでの解説もご覧ください。 GTC 2017 注目セッションのご紹介 600 近いテクニカルセッションの中から、ほんの一部ですが概要を紹介します。録画は、後日 http://www.gputechconf.com/ で公開されます。 ゼンリン HD マップ事例 S7656 - ACCELERATING HD MAP CREATIONS WITH GPUS NVIDIA の GPU テクノロジと DriveWorks、MapWorks を活用し、 ゼンリンの高精度地図整備プロセスを加速した事例の発表です。 GPU の 活 用 方 法 や 、 ゼ ン リ ン の 高 精 度 地 図 デ ー タ を 使 っ た Localization のデモ、US の学習データで作られた DRIVENET の日本 での検証結果、今後の展望など、興味深い考察が述べられました。 会場では多数の質疑応答があり、大盛況のセッションとなりました。 Volta に最適化された NVIDIA ディープラーニングソフトウェア Caffe, TensorFlow, MXNet といった主要なディープラーニングフレームワークは、GPU によるモデルのトレーニング及び 推論の高速化に対応しており、そのために cuDNN, cuBLAS, cuSPARSE, NCCL, TensorRT, DeepStream SDK と いった NVIDIA Deep Learning SDK を使っています。 これらのライブラリも、Volta アーキテクチャに合わせて更新されました。 cuDNN 7: Pascal 比で Caffe2 での CNN トレーニングが 2.5 倍、 MXNet での RNN トレーニングが 3 倍高速に。 NCCL 2: NCCL はバージョン2で Volta に対応。 TensorRT 3: P100 比で ResNet50 の推論処理が 3.5 倍高速に。 また、各種ディープラーニングフレームワークに対応した Web インタフェースである NVIDIA DIGITS も進化しています。 DIGITS: TensorFlow をサポート。新たなトレーニング済みモデルをサポート: VGG-16, ResNet50, DetectNet