Intel 推出 NNP-I 神經網絡處理器 - 3C

By Carol
at 2019-06-29T00:08
at 2019-06-29T00:08
Table of Contents
Intel 推出 NNP-I 神經網絡處理器, Ice Lake 加上 Nervana 推理引擎
https://www.coolaler.com/threads/intel-nnp-i-ice-lake-nervana.355930/
Intel 在位於以色列海法的研發中心推出了一款針對推理運算的 Nervana 神經網絡處理
器,簡稱 NNP-I。這款處理器與常見的神經網絡處理器不同的是,它將此前發布的 Ice
Lake 處理器與 Nervana 神經網絡處理器結合,組成這款 NNP-I 處理器,但這款處理器
與 Ice Lake 處理器有很大的不同,使用 Ice Lake 基礎設計並做出了修改,將其中的
Gen 11 內顯及顯示模塊去掉,將其替換成針對推理運算的 AI 加速器。同時 Intel 還
在這款處理器上添加了 DSP 引擎,用於未針對固定功能加速器優化的算法,為其他類型
的 AI 運算提供相容性。
而 CPU 部分依舊採用多個 Intel Sunny Cove 架構的 x86 核心,但並不知道其核心數目
。Intel 產品工程總經理Oren Gershon模糊地稱他們移除了一些其他的核心為 AI 加速器
騰出額外的位置,所以這款處理器可能採用了兩個處理器內核。
Intel 提供了包括 m.2 等幾種形式的加速卡樣式,因此它可以安裝在伺服器主板的標準
m.2 接口或 PCIe 擴充卡上。與一些專為 AI 設計的定制晶片不同,這款產品幾乎兼容
所有的現代伺服器,甚至可以根據需要為伺服器添加多個 NNP-I 模塊。
Intel 也在軟體方面進行了優化,在使用 NNP-I 加速器時,伺服器可將全部神經網絡推
理運算轉移到 NNP-I 處理器中,並在任務完成時通知伺服器中的 Xeon 主處理器。而且
由於 NNP-I 處理器擁有完整的I/O模塊(擁有 PCH),所以其可以訪問處理所需的數據,
而且 Intel 稱這並不會受到 PCIe x4 帶寬的影響。
由於內部有全新的 Sunny Cove 架構的 x86 內核,所以 NNP-I 也有 AVX512 指令集,支
援 VNNI 深度學習指令,所以它技術適用於任何類型的 AI 負載,Intel 也提供了編譯器
,為 NNP-I 加速器提供定制代碼。如 PyTorch 及 TensorFlow 等機器學習框架,NNP-I
加速器可以幾乎無改動的運行支援這些框架的代碼。
Intel Ice Lake 處理器的 TDP 為28W,而 m.2 接口有15W的功耗限制,但由於其可以插
在 PCIe 擴充卡上,所以 NNP-I 加速器可以運行在更高的功耗下,以提供更好的性能。
而具體性能方面 Intel 並沒有透露,但 Intel 已經向早期客戶提供樣品,並在今年晚些
時候大批量生產。
當某廠在吹噓IPC進步跟功耗時,i皇已經在認真搞神經網路了了,未來神經網路智能AI才是重頭戲
還有最強指令集 AVX512 光這條A廠又輸慘慘,10nm這代只要全面支援又把A甩在後頭
謝謝intel推動世界進步
--
https://www.coolaler.com/threads/intel-nnp-i-ice-lake-nervana.355930/
Intel 在位於以色列海法的研發中心推出了一款針對推理運算的 Nervana 神經網絡處理
器,簡稱 NNP-I。這款處理器與常見的神經網絡處理器不同的是,它將此前發布的 Ice
Lake 處理器與 Nervana 神經網絡處理器結合,組成這款 NNP-I 處理器,但這款處理器
與 Ice Lake 處理器有很大的不同,使用 Ice Lake 基礎設計並做出了修改,將其中的
Gen 11 內顯及顯示模塊去掉,將其替換成針對推理運算的 AI 加速器。同時 Intel 還
在這款處理器上添加了 DSP 引擎,用於未針對固定功能加速器優化的算法,為其他類型
的 AI 運算提供相容性。
而 CPU 部分依舊採用多個 Intel Sunny Cove 架構的 x86 核心,但並不知道其核心數目
。Intel 產品工程總經理Oren Gershon模糊地稱他們移除了一些其他的核心為 AI 加速器
騰出額外的位置,所以這款處理器可能採用了兩個處理器內核。
Intel 提供了包括 m.2 等幾種形式的加速卡樣式,因此它可以安裝在伺服器主板的標準
m.2 接口或 PCIe 擴充卡上。與一些專為 AI 設計的定制晶片不同,這款產品幾乎兼容
所有的現代伺服器,甚至可以根據需要為伺服器添加多個 NNP-I 模塊。
Intel 也在軟體方面進行了優化,在使用 NNP-I 加速器時,伺服器可將全部神經網絡推
理運算轉移到 NNP-I 處理器中,並在任務完成時通知伺服器中的 Xeon 主處理器。而且
由於 NNP-I 處理器擁有完整的I/O模塊(擁有 PCH),所以其可以訪問處理所需的數據,
而且 Intel 稱這並不會受到 PCIe x4 帶寬的影響。
由於內部有全新的 Sunny Cove 架構的 x86 內核,所以 NNP-I 也有 AVX512 指令集,支
援 VNNI 深度學習指令,所以它技術適用於任何類型的 AI 負載,Intel 也提供了編譯器
,為 NNP-I 加速器提供定制代碼。如 PyTorch 及 TensorFlow 等機器學習框架,NNP-I
加速器可以幾乎無改動的運行支援這些框架的代碼。
Intel Ice Lake 處理器的 TDP 為28W,而 m.2 接口有15W的功耗限制,但由於其可以插
在 PCIe 擴充卡上,所以 NNP-I 加速器可以運行在更高的功耗下,以提供更好的性能。
而具體性能方面 Intel 並沒有透露,但 Intel 已經向早期客戶提供樣品,並在今年晚些
時候大批量生產。
當某廠在吹噓IPC進步跟功耗時,i皇已經在認真搞神經網路了了,未來神經網路智能AI才是重頭戲
還有最強指令集 AVX512 光這條A廠又輸慘慘,10nm這代只要全面支援又把A甩在後頭
謝謝intel推動世界進步
--
Tags:
3C
All Comments

By Delia
at 2019-06-29T04:06
at 2019-06-29T04:06

By Carolina Franco
at 2019-06-30T14:27
at 2019-06-30T14:27

By Delia
at 2019-07-05T09:07
at 2019-07-05T09:07

By Edward Lewis
at 2019-07-06T13:40
at 2019-07-06T13:40

By Hamiltion
at 2019-07-09T12:46
at 2019-07-09T12:46

By Hazel
at 2019-07-13T12:01
at 2019-07-13T12:01

By Agnes
at 2019-07-15T05:35
at 2019-07-15T05:35

By Liam
at 2019-07-18T13:51
at 2019-07-18T13:51

By Audriana
at 2019-07-18T20:57
at 2019-07-18T20:57

By Hedwig
at 2019-07-19T00:45
at 2019-07-19T00:45

By Jack
at 2019-07-22T10:52
at 2019-07-22T10:52

By Leila
at 2019-07-23T15:58
at 2019-07-23T15:58

By Barb Cronin
at 2019-07-24T02:36
at 2019-07-24T02:36

By Quanna
at 2019-07-24T13:53
at 2019-07-24T13:53

By Olga
at 2019-07-26T11:45
at 2019-07-26T11:45

By Frederica
at 2019-07-26T22:09
at 2019-07-26T22:09

By Robert
at 2019-07-28T00:11
at 2019-07-28T00:11

By Isabella
at 2019-08-01T02:08
at 2019-08-01T02:08

By Oscar
at 2019-08-05T01:04
at 2019-08-05T01:04

By Frederic
at 2019-08-09T17:27
at 2019-08-09T17:27

By Joe
at 2019-08-10T12:25
at 2019-08-10T12:25
Related Posts
50K skyline機

By Dinah
at 2019-06-28T23:33
at 2019-06-28T23:33
15k文書機

By Puput
at 2019-06-28T23:29
at 2019-06-28T23:29
geeek h700

By Caroline
at 2019-06-28T23:00
at 2019-06-28T23:00
DELL 3670特裝機 該買哪款

By Connor
at 2019-06-28T22:49
at 2019-06-28T22:49
欣亞顯卡特價

By Anthony
at 2019-06-28T22:34
at 2019-06-28T22:34