時(shí)間:2023-12-18來源:本站
語言大模型作為人工智能領(lǐng)域的重要分支,其強(qiáng)大的自然語言處理能力和模仿人類的對(duì)話決策能力,正逐漸成為人們的關(guān)注焦點(diǎn)。近日,據(jù)央視新聞報(bào)道,工業(yè)和信息化部賽迪研究院數(shù)據(jù)顯示,今年我國(guó)語言大模型市場(chǎng)規(guī)模實(shí)現(xiàn)較快提升,應(yīng)用場(chǎng)景不斷豐富,增長(zhǎng)率有望突破 100%。目前我國(guó)已有超過 19 個(gè)語言大模型研發(fā)廠商,其中通過備案的共有 15 家廠商的模型產(chǎn)品,預(yù)計(jì)今年我國(guó)語言大模型市場(chǎng)規(guī)模將達(dá)到 132.3 億元,增長(zhǎng)率將為 110%。這表明語言大模型技術(shù)在我國(guó)得到了廣泛應(yīng)用,并且市場(chǎng)需求也在不斷增長(zhǎng)。
其中,大模型加速利器——寶德AI訓(xùn)練服務(wù)器PR4910E是當(dāng)之無愧的算力王者。它采用2顆身懷七大算力神器的第四代英特爾®至強(qiáng)®可擴(kuò)展處理器,最大60核心,支持10張GPU加速卡,已經(jīng)適配和支持Intel GPU Flex系列,能為大模型訓(xùn)練和推理提供強(qiáng)有力的算力支撐;它具有13個(gè)PCIe x16 Gen5插槽,支持32個(gè) DIMM / DDR5內(nèi)存插槽,支持最新的400Gb ETH和NDR IB高速智能網(wǎng)卡,以及 GPU Direct RDMA,最多支持24個(gè) NVMe SSD,而且采用CPU 直通設(shè)計(jì),大幅降低 I/O 延遲,為大模型數(shù)據(jù)存儲(chǔ)和傳輸提供高效可靠的保證。
此外,它采用整機(jī)模塊化設(shè)計(jì),支持靈活切換 CPU 和 GPU 的異構(gòu)拓?fù)浣Y(jié)構(gòu),非常便于用戶的系統(tǒng)維護(hù)和管理。而且,該產(chǎn)品支持最新發(fā)布的第五代英特爾®至強(qiáng)®處理器,每個(gè)內(nèi)核都具備 AI 加速功能,無需添加獨(dú)立加速器,即可處理要求嚴(yán)苛的 AI 工作負(fù)載,非常適用于大模型、人工智能、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò),賦能醫(yī)學(xué)、材料、金融、科技等千行百業(yè)智能化轉(zhuǎn)型和應(yīng)用。