作為一款聊天機(jī)器人,ChatGPT 最近掀起狂熱之風(fēng),上線兩個月注冊用戶破億,甚至一度導(dǎo)致服務(wù)器爆滿!
作為對話式大型語言模型,ChatGPT 的誕生離不開大量云計算資源的支持。而云計算平臺可以為各類 AI 產(chǎn)品的研發(fā)提供豐富多樣的服務(wù)。
ChatGPT 是怎么看待云計算的呢?青云科技(qingcloud.com,股票代碼:688316)就此對 ChatGPT 展開了提問,得到了如下回復(fù):
ChatGPT 在回復(fù)中提到,云計算可以為 AI 提供計算、存儲、分析等資源與服務(wù)。IDC 在其發(fā)布的《2022 年 H1 中國 AI 云服務(wù)市場研究報告》中也指出,“基于云計算的 AI 能力逐漸得到驗(yàn)證,企業(yè)上云率和云原生企業(yè)占比逐漸提高,混合云技術(shù)日益成熟和普及,這些因素驅(qū)動中國 AI 公有云部署方式快速增長。”
當(dāng)企業(yè)將其 AI 應(yīng)用部署在公有云上,借助公有云按需付費(fèi)、彈性伸縮的特點(diǎn),能夠很好地滿足企業(yè)實(shí)際業(yè)務(wù)需求,降低資源浪費(fèi)與使用成本,同時保障業(yè)務(wù)的安全性與服務(wù)的連續(xù)性。
除了云計算以外,ChatGPT 還回答到自己使用了 GPU 計算、CPU 計算、TPU 計算等其他計算資源,用于提高自身深度學(xué)習(xí)模型的訓(xùn)練和推理、數(shù)據(jù)的預(yù)處理和模型的參數(shù)更新等。
為了實(shí)現(xiàn)強(qiáng)大的自然語言處理能力,ChatGPT 龐大的模型注定其需要調(diào)動海量算力進(jìn)行語言模型訓(xùn)練,以達(dá)到其不斷進(jìn)化的目的。
青云QingCloud 高性能算力為 AI 賦能
ChatGPT 作為聊天 AI 應(yīng)用,其誕生與成長離不開算力的滋養(yǎng)。而隨著 ChatGPT 的熱度不斷上升,AI 應(yīng)用逐漸走近大眾視野。
數(shù)據(jù)和算力是 AI 的基礎(chǔ),是影響技術(shù)發(fā)展和應(yīng)用的核心因素。青云QingCloud 推出的高性能計算專區(qū)及系列公有云服務(wù),為各行各業(yè) AI 的深入應(yīng)用與突破提供可靠算力支持,助力國家實(shí)體經(jīng)濟(jì)發(fā)展。
青云QingCloud 公有云作為自研的全棧云計算服務(wù)平臺,基本形成了以云服務(wù)、高性能計算、云原生、大數(shù)據(jù)等為核心的戰(zhàn)略級服務(wù)矩陣,為企業(yè)客戶提供安全合規(guī)、運(yùn)維便捷、高性價比的云服務(wù)。
青云提供的公有云與私有云具有統(tǒng)一的代碼和架構(gòu),能夠?qū)崿F(xiàn)跨云的資源供應(yīng)與運(yùn)營。青云公有云提供跨云多集群容器管理能力,完整覆蓋云原生場景,并通過包括高性能計算在內(nèi)的多元云端算力服務(wù),為企業(yè)數(shù)據(jù)分析和深度計算提供源源不斷的算力支持。
青云推出的高性能計算專區(qū)正在為各行業(yè)提供算力服務(wù),典型應(yīng)用是對 AI 場景的支持與賦能。專區(qū)通過高性能計算 EHPC、云 GPU、Lustre 商用版文件存儲等產(chǎn)品,為用戶提供完整的計算服務(wù)解決方案。其中,高性能計算集群,采用全閃并行文件存儲,資源充足,彈性伸縮。彈性高性能計算 EHPC,支持 100/200Gbps IB 網(wǎng)絡(luò),NVIDIA A100 GPU 云主機(jī)(單臺可多至 8 卡),高效支持大規(guī)模計算任務(wù)。
基于容器引擎 QKE 進(jìn)行模型訓(xùn)練
QKE 在 QingCloud 公有云上交付 KubeSphere 容器平臺的全部能力,并可統(tǒng)一管理跨云、跨基礎(chǔ)設(shè)施的 K8s 集群,通過極簡的人機(jī)交互實(shí)現(xiàn) CI/CD、微服務(wù),以及集群運(yùn)維管理,幫助用戶敏捷構(gòu)建云原生應(yīng)用。針對大規(guī)模的模型訓(xùn)練場景,青云基于容器引擎 QKE 的完整解決方案,能夠在 QKE 上實(shí)現(xiàn)應(yīng)用的快速部署、分布式計算、動態(tài)自動伸縮計算資源等,很好地支撐 AI 模型訓(xùn)練與應(yīng)用場景。
QKE 集群 GPU 工作節(jié)點(diǎn),單節(jié)點(diǎn)最大可支持選配 8 卡 NVIDIA A100 資源,集群規(guī)模最大可配置 100 個 GPU 工作節(jié)點(diǎn)。QKE 支持運(yùn)行 TensorFlow、Keras、PyTorch、Caffe 等多種深度學(xué)習(xí)框架。通過構(gòu)建 GPU 資源池,可以將 GPU 的綜合利用率提升 3~10 倍,并且可支持靈活調(diào)度,將 AI 負(fù)載和 GPU 資源分離部署,支持 CPU 和 GPU 資源解耦。
此外,QKE 提供彈性的資源伸縮能力,能夠滿足企業(yè)在模型訓(xùn)練時的資源要求,同時避免閑時資源浪費(fèi)。集群節(jié)點(diǎn)支持根據(jù)資源指標(biāo)數(shù)據(jù)變化,自動完成增減。同時支持 Pod 橫向彈性伸縮(HPA,Horizontal Pod Autoscaler)和縱向擴(kuò)容(VPA,Vertical Pod Autoscaler)。
ChatGPT 引爆 AI 時代,迎來大發(fā)展,AI 的加速布局必將顯著拉動算力需求。伴隨國家“東數(shù)西算”戰(zhàn)略布局的步伐,青云的多元算力服務(wù)已經(jīng)廣泛應(yīng)用于科學(xué)研究、新興 AI、大數(shù)據(jù)、自動駕駛、智慧交通等領(lǐng)域,滿足這些場景下的科學(xué)計算需求,為數(shù)字經(jīng)濟(jì)發(fā)展提供不竭動力。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!