AI推理芯片激發新一輪應用創新
隨著ChatGPT橫空出世,人工智能(AI)領域的競爭進入白熱化。英偉達公司的高端圖形處理單元(GPU)芯片“一飛沖天”,受到各大科技公司追捧。與此同時,也有一些初創公司另辟蹊徑,專注於研制另一種芯片——AI推理芯片,為AI產品的蓬勃發展和應用注入全新動力。
據物理學家組織網近日報道,這些AI推理芯片旨在降低生成式AI所需的高昂計算成本,更貼合AI工具的日常運行要求。此類芯片成本的不斷下探和性能的持續提升,有望掀起新一輪AI應用創新浪潮,讓更多復雜且強大的AI應用走進千家萬戶。
推理計算需求水漲船高
訓練與推理,是AI大語言模型兩大核心能力的堅固基石。
在應用過程中,經過訓練的ChatGPT等生成式AI工具會吸納新信息,從中進行推理並生成回應,如撰寫文檔、生成圖像等。這類AI工具可應用於醫療診斷、自動駕駛、自然語言理解等領域。
隨著AI模型的廣泛應用,需要進行推理計算的硬件日益增多,對推理芯片的需求也將“水漲船高”。國際數據公司(IDC)的報告顯示,未來幾年,推理端的AI服務器佔比將持續攀升。預計到2027年,用於推理的工作負載將佔據七成以上。
科技公司競推新產品
Cerebras、Groq和d-Matrix等初創公司,以及超威半導體公司(AMD)和英特爾等傳統巨頭,紛紛推出了AI推理芯片。這些公司敏銳捕捉到了AI推理芯片“大顯身手”的契機。
據Cerebras公司官網報道,2024年8月28日,該公司推出了同名AI推理芯片。這款芯片在Llama 3.1-8B模型上實現了1800token/秒的推理速度﹔在Llama 3.1 70B上實現了450token/秒的推理速度,約是英偉達GPU推理速度的20倍。Token指AI處理文本的最小單元或基本元素,如一個單詞、一個字符等。
Cerebras公司解釋說,這一卓越表現得益於其創新的AI芯片設計方案。其晶圓級引擎(WSE)宛如一座龐大的“計算工廠”,最大特點是尺寸驚人——單個芯片幾乎佔據了一整塊晶圓的面積。在這個超大芯片上,計算單元和內存單元高度集成,形成一個密集的網格結構。這樣的設計,讓數據能在極短距離內,於計算單元和存儲單元之間傳輸,從根本上降低了數據移動成本,解決了GPU推理無法避免的內存帶寬瓶頸。此類大芯片能更快處理信息,從而在更短時間內給出答案。
早在去年2月,Groq公司就發布了自己的AI推理芯片GroqCloud。它在Llama 3.1 70B模型上實現了250token/秒的推理服務,速度比GPU幾乎提升了一個量級。
去年11月19日,硅谷初創公司d-Matrix宣布,其首款AI推理芯片Corsair已開始出貨,旨在提供聊天機器人和視頻生成等服務。Corsair在單服務器環境下,能讓Llama3 8B模型實現60000token/秒的處理能力,且每個token的延遲僅為1毫秒,充分彰顯了其在高速處理大規模數據方面的卓越性能。更值得一提的是,與GPU及其他方案相比,Corsair能在提供同等性能的同時,大幅降低能耗和成本。
應用開發走上新賽道
亞馬遜、谷歌、元宇宙平台、微軟等科技公司紛紛斥巨資,搶購昂貴的GPU,以期在AI開發賽道拔得頭籌。與此同時,AI推理芯片制造商則將目光瞄准了更廣泛的客戶群體,希望能在這片新藍海中大顯身手。
這些潛在客戶不乏那些渴望利用新興的生成式AI技術,卻又不想大費周章自建AI基礎設施的財富500強企業。而且,購買AI推理芯片比從英偉達等公司購買GPU便宜。AI推理芯片旨在優化推理計算的速度與效率,尤其擅長智能建議、語音識別、自然語言處理等領域。
業內專家稱,一旦推理速度提升至每秒數千token,AI模型將能在眨眼之間完成復雜問題的思考與回答過程。這不僅能讓現有應用的交互效率實現質的飛躍,還將帶來一系列令人耳目一新的人機交互場景。例如,在語音對話領域,延時將被壓縮至毫秒級,能實現近乎自然的對話體驗﹔在虛擬現實/增強現實領域,AI將能實時生成和調整虛擬環境、角色對話以及交互邏輯,給用戶帶來個性化、沉浸式體驗。
分享讓更多人看到
- 評論
- 關注