應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

黑芝麻智能發(fā)布華山 A2000 家族智駕芯片平臺(tái),算力達(dá)“當(dāng)前主流旗艦芯片的 4 倍”

2024-12-31 08:54 IT之家
關(guān)鍵詞:黑芝麻智能A2000家族

導(dǎo)讀:黑芝麻智能宣布推出其專(zhuān)為下一代 AI 模型設(shè)計(jì)的高算力芯片平臺(tái) ——華山 A2000 家族。

  12 月 30 日消息,黑芝麻智能宣布推出其專(zhuān)為下一代 AI 模型設(shè)計(jì)的高算力芯片平臺(tái) ——華山 A2000 家族。

image.png

  華山 A2000 家族包括 A2000 Lite、A2000 和 A2000 Pro 三款產(chǎn)品,分別針對(duì)不同等級(jí)的自動(dòng)駕駛需求:

  •   A2000 Lite 專(zhuān)注于城市智駕

  •   A2000 支持全場(chǎng)景通識(shí)智駕

  •   A2000 Pro 為高階全場(chǎng)景通識(shí)智駕設(shè)計(jì)

image.png

  A2000 家族的芯片集成了 CPU、DSP、GPU、NPU、MCU、ISP 和 CV 等多功能單元,實(shí)現(xiàn)了高度集成化和單芯片多任務(wù)處理的能力;新一代 ISP 技術(shù),具備 4 幀曝光和 150dB HDR,在隧道和夜間等場(chǎng)景下表現(xiàn)更好,提升了圖像處理能力。

  此外,A2000 家族單芯片數(shù)據(jù)閉環(huán)的設(shè)計(jì),使得數(shù)據(jù)在智駕功能正常運(yùn)行的同時(shí)能夠?qū)崿F(xiàn)全車(chē)數(shù)據(jù)的脫敏、壓縮、編碼和存儲(chǔ)。

  A2000 家族算力最大是“當(dāng)前主流旗艦芯片的 4 倍”,原生支持 Transformer 模型。A2000 家族的靈活擴(kuò)展性,允許多芯片算力的擴(kuò)展,以適應(yīng)不同級(jí)別的自動(dòng)駕駛需求,產(chǎn)品組合全面覆蓋從 NOA 到 Robotaxi 應(yīng)用場(chǎng)景。

  此外,華山 A2000 家族芯片不僅能用于智能汽車(chē)領(lǐng)域,還能夠支持機(jī)器人和通用計(jì)算等多個(gè)領(lǐng)域。值得一提的是,A2000 芯片能夠滿(mǎn)足機(jī)器人的“大小腦”需求,推動(dòng)機(jī)器人產(chǎn)業(yè)從原型開(kāi)發(fā)階段邁向大規(guī)模量產(chǎn)。

  IT之家從公告獲悉,黑芝麻智能推出了自研 NPU 新架構(gòu) ——黑芝麻智能“九韶”,九韶是黑芝麻智能為滿(mǎn)足自動(dòng)駕駛技術(shù)需求而推出的 AI 芯片的計(jì)算核心,支持新一代通用 AI 工具鏈 BaRT 和新一代雙芯粒互聯(lián)技術(shù) BLink。

  九韶 NPU 采用了大核架構(gòu),支持智駕大模型的實(shí)時(shí)推理,支持包括 INT8 / FP8 / FP16 在內(nèi)的混合精度,集成了針對(duì)高精度精細(xì)量化和 Transformer 的硬加速,能夠簡(jiǎn)化開(kāi)發(fā)者在量化和部署過(guò)程中的工作。

  此外,九韶 NPU 還具備低延時(shí)和高吞吐的三層內(nèi)存架構(gòu),包括大容量高帶寬的 NPU 專(zhuān)用緩存、核心模塊片內(nèi)共享緩存,以及對(duì)稱(chēng)的雙數(shù)據(jù)通路和專(zhuān)用 DMA 引擎。提升了性能和有效帶寬,降低了對(duì)外部存儲(chǔ)帶寬的依賴(lài)。

  為了發(fā)揮九韶 NPU 的潛力,黑芝麻智能研發(fā)了新一代通用 AI 工具鏈 BaRT。BaRT 支持多種流行框架和模型的轉(zhuǎn)換,原生兼容 PyTorch 的推理 API,支持 Python 編程部署。這使得開(kāi)發(fā)者能夠更加便捷地利用九韶架構(gòu)進(jìn)行 AI 模型的開(kāi)發(fā)和部署。

  BaRT 的另一個(gè)優(yōu)勢(shì)是支持業(yè)界主流的 Triton 自定義算子編程,允許開(kāi)發(fā)者使用 Python 語(yǔ)言編寫(xiě) Triton 自定義算子,這些算子可以被自動(dòng)化編譯成硬件加速代碼,從而進(jìn)一步加速開(kāi)發(fā)者 AI 模型的部署。

  為了滿(mǎn)足不同等級(jí)自動(dòng)駕駛的算力需求,新一代雙芯?;ヂ?lián)技術(shù) BLink支持 Cache 一致性互聯(lián)的高效 C2C(Chip-to-Chip)技術(shù),能夠擴(kuò)展支持更大規(guī)模模型的算力需求,為算法長(zhǎng)期演進(jìn)做好準(zhǔn)備。

  通過(guò) BLink 技術(shù),A2000 家族芯片能夠?qū)崿F(xiàn)軟件單 OS 跨片部署,支持高帶寬 C2C 一致性連接,滿(mǎn)足 NUMA 跨芯片訪存要求,簡(jiǎn)化軟件開(kāi)發(fā)和部署的難度。