このイベントの申し込みは以下のサイトからお願いします。

https://jdla.connpass.com/event/230295/


「AI半導体について知る」とは?
現在機械学習やディープラーニングなどの「AI演算」を行う半導体としては汎用のCPUやGPUが主に使われています。一方AI市場の拡大に呼応して、世界各地のスタートアップ企業などが汎用プロセッサより高性能や高効率を謳ったAI演算専用の「AI半導体」を発表しています。この背景の一つにはAI演算に特徴的なSparsity(疎性)があります。

コンピューターの歴史を振り返ると、演算器の著しい性能向上に対して、メモリーの性能が上がらず、乖離が年々広がるという大きな課題がありました。これに対してはメモリーの階層構造を採ることでデータの遅延を隠蔽し、演算器の性能を維持することが出来ました。しかし、この方式はキャッシュのヒット率が高いことが条件となります。

HPCやグラフィックスの処理ではDENSEなGEMM、つまり密行列の掛け算が主な演算であり、これらの演算ではキャッシュのヒット率が高く、IntelのMath Kernel LibraryやNVIDIAのcuBLASなどを用いるとプロセッサの理論ピークに近い性能を出すことが出来ます。しかし、AI演算では疎行列が多く現れ、キャッシュのヒット率を高く保つことはできません。従来は様々なソフトウェアの工夫などにより疎行列を少しでも効率的に扱おうとしてきましたが、疎行列の扱いは難しいままでした。

AIが一過性のブームではなく、今後もずっと続くものである、との確信が広がるにつれ、疎行列の扱いを根本から見直す必要に迫られています。ソフトウェアによる工夫ではなく、プロセッサとメモリーの関係を一から見直した新しいプロセッサアーキテクチャが必要です。これが現在多くのAI半導体が提案されている理由であり、各社が様々なアプローチでSparsityに立ち向かっています。

「AI半導体について知る」シリーズでは、これら「AI半導体」に着目し、現在の状況などを概観すると共に、様々な「AI半導体」について深く学んでいきたいと思います。

今回のテーマは
第1回目はJDLA賛助会員のセレブラス・システムズ合同会社の代表執行役社長の江尾浩昌さんと東京エレクトロンデバイス アプリケーションサービス開発部の中川隆志さんにセレブラスのウェハースケールエンジンについてご講演頂きます。

【講演タイトル】 セレブラス ウェハー スケール エンジン

【講演概要】 12インチウェハーを丸ごと1チップ活用して作られる世界最大のAIチップであるWafer Scale Engine (WSE)。名前くらいは聞いたことがあるかもしれませんが、このチップを使って一体どんなことができるのでしょうか。本日はWSEのハードウェアとしての特徴の紹介や、WSEを組み込んだCerebras社CS-2について、どうやって使うの?スペックはどのくらいなの?導入事例はあるの?お試し利用はできないの?といった疑問にお答えしようと思います。

【講演者】
セレブラス・システムズ合同会社 代表執行役社長 江尾浩昌さん

東京エレクトロンデバイス アプリケーションサービス開発部    中川隆志さん
5年程のプログラマー生活を経て東京エレクトロンデバイスに入社。しばらくはDWH/Hadoopなどのビッグデータ製品のプリセールスに従事。その後AI/IoT関連のシステム開発と製品企画を行う中で自社がCerebras社との販売代理店契約を締結。現在は商社としてのCerebras/CS-2販売業務、メーカーとしての製品開発業務の二足の草鞋で奮闘中。