搜索
鴻云智算大模型一體機HCP-48(8卡-混合算力-全棧超融合)
鴻云智算大模型一體機HCP-48(8卡-混合算力-全棧超融合)
CPU通算 + GPU智算一體機、通過先進的混合算力體系

諾亞鴻云致力于構(gòu)建一套整體的人工智能基礎(chǔ)建設(shè)方案 ,CPU通算 + GPU智算一體機、通過先進的混合算力體系。

 

方案優(yōu)勢

 

自主可控

CPUGPU全國產(chǎn)化體系結(jié)構(gòu), 規(guī)避貿(mào)易摩擦,地緣政治等不穩(wěn)定因素,構(gòu)建持續(xù)的智算發(fā)展戰(zhàn)略

 

獨樹一幟的設(shè)計體系

采用創(chuàng)新型的兩段式設(shè)計體系,既:通算部分仍然使用高性能國產(chǎn)處理器體系結(jié)構(gòu),智算部分則采用自研的獨立GPU基板。通過2GPU 加速模組,促使GPUs在系統(tǒng)內(nèi)部高速互聯(lián),以此來規(guī)避PCIe帶寬瓶頸

 

開放式 & 易用性

始終遵循開放式的體系結(jié)構(gòu)設(shè)計, 可根據(jù)預算,喜好選擇廣泛的GPU 品牌。通過自研的AIOS可在出廠便預制了GPU驅(qū)動程序,算子與框架適配服務,甚至包含友好的GPU調(diào)度與管理的統(tǒng)一可視化平臺。解決國產(chǎn)GPU因為易用性推廣的最后一公里

 

All in One 交付能力

混合算力系統(tǒng)具備構(gòu)建完整人工智能應用所需的配套環(huán)境。 為復雜的AI應用程提供性能強大的虛擬化,容器等環(huán)境。而以GPU為核心的智算池也耦合在同一系統(tǒng)。支持混合算力的分布式部署,通過橫向擴展,具備構(gòu)建高可用性的大型GPU智算組網(wǎng)的能力

 

更多了解請點擊:

全信創(chuàng) 鴻云智算大模型一體機AWS-P2 /AWS-P4/MGP-410/MGP-820ls (2卡/4卡/10卡/20卡)

 

方案介紹
 

在當今人工智能產(chǎn)業(yè)快速的變革中,企業(yè)需要迅速的做出反應,通過擁抱人工智能帶來的 關(guān)鍵優(yōu)勢,降低運營成本,提高生產(chǎn)力,以此來提升企業(yè)在經(jīng)濟市場的競爭力。 然而,以通用算力構(gòu)建的私有云向人工智能的戰(zhàn)略性轉(zhuǎn)型總是面臨著各種問題,例如現(xiàn)有 資產(chǎn)的利用率、設(shè)計人工智能基礎(chǔ)設(shè)施的復雜度、如何確保國產(chǎn)化的自主可控、引入國產(chǎn) GPU與模型和框架的適配、以及智算架構(gòu)的可擴展性為了應對企業(yè)不斷發(fā)展的業(yè)務需求等等。 
 

構(gòu)建自主可控的人工智能基礎(chǔ)設(shè)施 利用諾亞鴻云打造的HCP混合算力系統(tǒng) 
 

HCP-48是諾亞鴻云基于創(chuàng)新理念“Hybrid-Computing Platform”打造企業(yè)級混合型算力系統(tǒng)。 通過HCP系統(tǒng),耦合了以處理器為核心的通用算力來構(gòu)建私有云平臺,還包含了以GPU為 核心的高性能智算體系,符合全國產(chǎn)化設(shè)計,讓智算基礎(chǔ)設(shè)施高效運行的同時更加自主可控。 
HCP方案突出高性能和無與倫比的可擴展性,這體現(xiàn)在: 1).我們的科研人員通過先進的電子電路設(shè)計,重新塑造了GPU的互聯(lián)方式。 2).通過兩段式的設(shè)計,重新設(shè)計高帶寬的GPU基板,規(guī)避當前PCIe通道在智算產(chǎn)業(yè)的帶寬瓶頸。 3).內(nèi)置GPU加速模組,智算整機可通過模組直接 P2P互聯(lián),無需通過處理器與PCIe的中轉(zhuǎn)。 4).通用基礎(chǔ)算力配置自研的IPU加速卡,可有效的卸載國產(chǎn)化處理器與內(nèi)存對于云組件的處理,如:云管平臺、存儲系統(tǒng)、磁盤IO、以及磁盤糾刪 /條帶等、帶來的性   能開銷。


在私有云的建設(shè)中很多用戶會顧及“國產(chǎn)化處理器體系”性能,是否能在融合架構(gòu)中發(fā)揮更大 性能與兼容性。我們的工程師為HCP通算層開發(fā)了具備自主可控的IPU加速中間件,通過有效的 卸載與云組件相關(guān)的堆棧,促使處理器與內(nèi)存等通用算力可以更加專注的服務應用程序。 IPU加速卡通過創(chuàng)新型的FPGA+ASIC嵌入式設(shè)計,預制云管平臺、分布式存儲系統(tǒng)、磁盤與 IO的高級特性處理堆棧、以及一顆具備數(shù)百GB的RAID 分區(qū)芯片、服務于磁盤的High Caching。 IPU加速卡還具備自組網(wǎng)特性,使存儲相關(guān)的流量和服務在跨節(jié)點交互時不經(jīng)由額外的以太網(wǎng) 適配器。綜上,HPC的混合算力系統(tǒng)通過一系列先進的體系結(jié)構(gòu)設(shè)計,可有效的加速依賴于人 工智能的應用程序,包含與之相關(guān)的存儲服務:向量化知識庫、語料數(shù)據(jù)、模型載入與數(shù)據(jù)庫。

 

Hybrid-Computing Platform 致力于打造一套完整的人工智能運行環(huán)境的解決方案,降低企業(yè)邁入人工智能的部署成本,通過創(chuàng)新型混合 算力的體系結(jié)構(gòu)。通算與智算兩段化的系統(tǒng)設(shè)計標準,在安全方面通算體系結(jié)構(gòu)全部采用國產(chǎn)化自主可控設(shè)計,滿足日益嚴苛的信息安全 政策,而智算方面則適配了主流的國產(chǎn)GPU廠商,做到了從通用算力到智算的全國產(chǎn)化方案落地。
1).高性能--是在體系結(jié)構(gòu)設(shè)計之初另一個重要的考量。我們工程師通過創(chuàng)新型的電子電路設(shè)計,開發(fā)了GPU的互聯(lián)基板,通過交換芯片使 GPU之間的互聯(lián)帶寬到達500Gbps。GPU加速模組卡則是把多個廠商GPU智算卡異構(gòu)整合的又一個先進創(chuàng)新,還具備整機互聯(lián)的直出端口, 既:通過GPU模組卡400Gbps整機組網(wǎng)互聯(lián)。人工智能高度依賴的應用程序可運行在由HCP-48系統(tǒng)集成的云環(huán)境,通過虛擬化或容器環(huán)境屏蔽不相關(guān)性,而唯一被關(guān)注的則是國產(chǎn)化 服務器體系帶來的性能擔憂。 


2).我們工程師通過自研的“硬件中間件”方法,高效的卸載云組件相關(guān)的堆棧,讓國產(chǎn)處理器與內(nèi)存能夠火力全開的服務應用程序,而在 廣泛的云組件中,存儲與磁盤IO處理相關(guān)的的性能開銷則是首當其沖。IPU加速卡具備完整的存儲與磁盤IO處理堆棧,同時集成了通用 的存儲分布式技術(shù),甚至還保留了10Gb/25Gbps存儲組網(wǎng)端口,能夠支持大規(guī)模的橫向擴展需求。 
 

3).系統(tǒng)結(jié)構(gòu)的開放性和靈活性是我們一直追求的目標。HCP具備高度的靈活性,這不僅體現(xiàn)在您可以自由選擇第三方的通用GPU算力卡。 還可根據(jù)需求獨立的擴展通用算力。GPU算力同樣可以獨立擴充,無需出廠既滿配,可以根據(jù)應用需求、預算、喜好隨需擴容。 
 

4).易用性與維護性也是完整方案的一部分,HCP系統(tǒng)出廠既預裝了主流國產(chǎn)廠商的GPU驅(qū)動程序,根據(jù)需求適配了廣泛的框架和算子, 甚至貼心的為用戶下載大模型,這一切被高度集成在AIOS系統(tǒng)中。提供一套友好的可視化WebUI,隨時供用戶掌控集群內(nèi)部的GPU調(diào)度、 維護、監(jiān)測、以及模型下載后的進行測試的工具。 

 

方案效益

 

·開放式&易用性

支持廣泛的國產(chǎn)GPU智算卡與英偉達

自研的AIOS具備豐富的GPU可視化調(diào)度工具

 

·異構(gòu)融合:

同一個GPU服務器內(nèi)部可以支持不同廠家的國產(chǎn)GPU卡, 實現(xiàn)單服務器異構(gòu)算力融合。

 

 ·提供一站式交付平臺  

提供國產(chǎn)+ 英偉達主流算力,用戶選擇更自由。

開“箱”即用,涵蓋AI開發(fā)全流程,包含數(shù)據(jù)集、模型開發(fā)、訓練、管理、 部署功能,可靈活使用其       中一個或多個功能。

企業(yè)從人工智能入門到擴展大型算力需求,橫向擴展能力始終伴隨人工智能 業(yè)務的發(fā)展。

 

更多了解請點擊:

 

首創(chuàng)+全信創(chuàng) 一卡即“云”,一云多“芯”。DAU-S160存儲數(shù)據(jù)加速單元,開箱即用的超融合/雙活/分布式存儲/云桌面/AI大模型一體機解決方案!
 

AI 智算體系架構(gòu)革新者,1臺=4臺的性能,1臺成本可節(jié)約88%