近日,社交媒體平臺上流傳著不少明星演員流利說外語的視頻,其中郭德綱說英文相聲、趙本山用一口純正的倫敦腔接受采訪的視頻尤為引人注目。然而深扒得知,這些視頻背后是AI技術推手。
令人驚訝的是,其與原視頻相比,不僅聲線和腔調與原版視頻一致,甚至能夠準確卡點、對口型,幾乎與真人口述無異。網友們的反應也極為熱烈,有人直言“這真的是假的嗎?”,有人稱贊“簡直毫無違和感”,還有人驚嘆“這也太絕了”。這不禁讓人感嘆,AI技術在生成視頻方面的應用已經達到了一個新的高度,讓人們真假難辨。令人驚艷的技術背后,其實是AIGC領域的飛速發展。目前,AIGC已經能夠生成各種類型的內容和數據,包括文字、代碼、圖像、語音和視頻等。隨著技術的不斷進步和算法的不斷優化,AIGC在日常生活中的應用場景和商業模式被不斷拓展,展現出巨大潛力。 然而,AIGC技術的實現離不開強大的算力支撐。算力如同AIGC的心臟,為AIGC技術從概念到實踐提供了堅實的支撐,是模型訓練和數據處理不可或缺的驅動力。隨著AIGC的加速發展和模型規模的不斷擴大,對算力的需求急劇增長。全球大模型賽道競爭愈演愈烈,算力供給的增速明顯難以滿足指數式爆發的需求,導致算力面臨告急的困境。
作為中國領先的計算產品方案提供商和中國AI服務器TOP3,寶德計算積極學習和吸收業界先進的AI技術和產品,依托于二十多年的雄厚技術和經驗,基于AI產業需求,推出了多樣性的AI算力產品和解決方案,為算力告急困局解決燃眉之急。
為應對AIGC和大模型的AI算力困局,寶德積極攜手產業合作伙伴,打磨先進的AI服務器,為大模型訓練和推理夯實算力根基,賦能AIGC各類場景應用。
寶德AI加速服務器PR4910E支持10張GPU加速卡,并配置2顆身懷七大算力神器的第四代英特爾®至強®可擴展處理器,最大可達60核心,為大模型訓練提供強有力的算力支撐。它具有13個PCIe x16 Gen5插槽,支持32個 DIMM / DDR5內存插槽,支持最新的400Gb ETH和NDR IB高速智能網卡,以及 GPU Direct RDMA,最多支持24個 NVMe SSD,而且采用CPU 直通設計,大幅降低 I/O 延遲,為大模型數據存儲和傳輸提供高效可靠的保證。 寶德AI服務器PR8908WG,8U空間支持8顆OAM高速互聯的Gaudi®2 AI加速器,每顆配置96GB HBM高速內存,GPU與 GPU 之間互聯帶寬達到400GB/s,提供2.1Tbps的P2P互聯帶寬,支持全互聯拓撲,全面滿足大模型訓練的海量通信需求;它擁有32個DDR4 DIMM插槽,支持24塊2.5英寸SAS/SATA熱插拔硬盤位,采用 CPU 直通設計,降低 I/O 延遲;它支持200Gb ETH和HDR高速智能網卡,支持GPU Direct RDMA,完美滿足AI集群和大模型應用。
加速AIGC應用落地,寶德AIGC方案釋放AI價值
基于對市場的理解和對客戶生成式AI多樣性的計算需求,寶德推出了AIGC軟硬一體化解決方案。該方案支持靈活定制,既可以集群部署也可以單機部署,滿足不同客戶的實際需求。其架構包含硬件層、平臺層、服務層和應用層,通過智能化調度和資源管理,形成了一個高效、便捷的算力服務平臺,為不同的行業客戶提供可便捷獲取的算力,釋放AI價值,推動AIGC技術的廣泛應用與落地。在硬件層,寶德提供了x86和ARM架構的CPU/GPU/NPU/XPU等、涵蓋AI訓練服務器、AI推理服務器和AI邊緣產品等多平臺兼容,進行模型的高速訓練、微調和高效推理。在硬件基礎上,方案采用K8S進行集群資源管理(單機部署采用Docker)。服務層則部署了眾多先進的服務,如ChatGLM大模型推理服務、由GLM微調而來的行業大模型-寶德酒業大模型推理服務和寶德自研的嵌入數據倉庫服務等。這些服務可以將行業數據轉換為向量數據,存儲到向量數據庫中,并通過相似度匹配算法查詢出相關內容交給大語言模型進行推理、LLM Functions服務,讓大語言模型擁有調用后端接口的能力。基于這一強大的技術和服務支撐,寶德進一步開發了多種AI應用,如聊德寶、AI客服和數字人等。這些應用廣泛服務于行業大模型、智能語音助手、網絡直播、線上教育和培訓等領域,為各行業的數字化轉型注入了新的活力。
當前AI發展浪潮迅猛,AIGC空間廣闊,行業應用大有可為。寶德將持續聚焦AIGC與大模型浪潮帶來的機遇與挑戰,充分發揮自身技術優勢,深度匹配各行業AI場景需求,推出更多豐富的AI算力產品和生成式AI解決方案,提供普惠算力,助推更多AIGC場景落地和應用,賦能更多行業創新發展,為我國人工智能產業發展注入強勁的動力。