隨著DeepSeek等模型的不斷出現(xiàn),大模型的能力上限也在不斷刷新,行業(yè)幾乎每三個月就迎來一波技術(shù)提升。大模型就像一頭“灰犀?!庇娑鴣恚o企業(yè)和普通人平等地帶來了挑戰(zhàn)。如何確保不被替代、以及更好地運(yùn)用大模型而不被行業(yè)拋棄變得越來越重要。
為普通人大模型開發(fā),搭建進(jìn)階的“梯子”
對于企業(yè)來說,當(dāng)前重點(diǎn)是打造以AI負(fù)載為中心的基礎(chǔ)架構(gòu)新范式。而對于普通人來說,可能一個最樸素的想法就是“打不過就加入”。與其去參與大模型的“內(nèi)卷”,不如去做大模型應(yīng)用開發(fā),因?yàn)榇竽P鸵话阋蛻?yīng)用結(jié)合才能在各種場景落地,所以加入大模型應(yīng)用開發(fā)賽道,可能是個人提升自我的有效途徑。
英特爾技術(shù)專家介紹,進(jìn)行大模型應(yīng)用開發(fā),需要具備三個要素:一是硬件環(huán)境,用于驗(yàn)證和練習(xí);二是軟件棧,需要主流的軟件棧支持;三是要有好老師,不僅要能夠運(yùn)行,更要深度理解,真正實(shí)現(xiàn)能力的進(jìn)階。
英特爾技術(shù)專家以火山引擎第四代云服務(wù)器實(shí)例為例,表示英特爾正在聯(lián)合火山引擎的云服務(wù),為開發(fā)者打造一個“梯子”,把門檻降低,幫助更多人邁出跨越的第一步。
云原生擁抱AI原生,CPU的“瑞士軍刀”作用
英特爾與火山引擎已合作多年,雙方聯(lián)合打造的第四代通用型實(shí)例g4il,在性能上進(jìn)一步實(shí)現(xiàn)了通用型提升,包括數(shù)據(jù)庫應(yīng)用、Web應(yīng)用、圖像渲染能力等方面,此外的重點(diǎn)還有云原生和AI原生的結(jié)合,通過軟硬件深度融合,加速AI算力的普惠。
長期以來,CPU在AI方面的能力、特別是CPU進(jìn)行AI推理方面的效果一直被業(yè)界所好奇。英特爾技術(shù)專家表示,CPU本質(zhì)上可以理解為一把“瑞士軍刀”,是一個通用型計(jì)算設(shè)備,能夠執(zhí)行多種任務(wù)。
在AI推理方面,業(yè)界目前普遍的趨勢是采用異構(gòu)計(jì)算,即CPU和GPU混合推理。CPU的優(yōu)勢在于,對于一些GPU資源有限或不太容易獲取、又只需要一定的AI推理性能的客戶來說,用CPU可以進(jìn)行小規(guī)模模型或AI場景使用;但如果GPU資源非常充足,那么CPU仍然可以和GPU協(xié)同工作,而并非相互替代的關(guān)系。
對AI應(yīng)用進(jìn)行生命周期的劃分,主要包括開發(fā)、驗(yàn)證和大規(guī)模生產(chǎn)部署。在開發(fā)和驗(yàn)證階段,對算力性能要求相對較低,CPU可以充分發(fā)揮低成本和易獲得的優(yōu)勢。基于g4il實(shí)例+大模型應(yīng)用鏡像,英特爾希望為開發(fā)者提供低成本、高效率的專屬大模型應(yīng)用開發(fā)環(huán)境。
由于云服務(wù)具有易獲得、快速部署等優(yōu)勢,非常適合應(yīng)用開發(fā)學(xué)習(xí)或起步階段,且按使用量收費(fèi),計(jì)費(fèi)方式靈活,是應(yīng)用開發(fā)的天然入口。同時,第四代實(shí)例采用了英特爾至強(qiáng)6處理器的CPU,內(nèi)置AI加速器AMX。目的是利用AMX,讓用戶在更低的配置、更經(jīng)濟(jì)的虛擬機(jī)上獲得流暢的體驗(yàn),這些都是幫助開發(fā)者降低門檻的重要抓手。
英特爾技術(shù)專家指出,除了硬件,軟件棧的配置越來越復(fù)雜。特別是近兩年開源方案層出不窮,從驅(qū)動開始,就要考慮驅(qū)動安裝、加速庫配置、框架組件配置等各種問題,大多數(shù)開發(fā)人員在初期都會遇到很多困難。
從去年開始,英特爾發(fā)起了開源社區(qū)OPEA(Open Platform for Enterprise AI),希望利用開放架構(gòu)和組件式模塊化的架構(gòu),為企業(yè)打造可擴(kuò)展的AI應(yīng)用部署基礎(chǔ)。OPEA社區(qū)積累了大量經(jīng)過預(yù)先驗(yàn)證的、優(yōu)化的開源應(yīng)用范例,可供社區(qū)用戶參考。英特爾通過將范例和軟件棧打包成虛擬機(jī)鏡像,通過一鍵部署的方式,把硬件和軟件環(huán)境快速搭建起來,將原本需要數(shù)天的過程縮短至3分鐘。
“一鍵部署只是“開胃菜”,真正實(shí)現(xiàn)能力提升還需要學(xué)習(xí),從核心基礎(chǔ)開始,循序漸進(jìn)。因此,除了硬件、軟件,英特爾又補(bǔ)充了演示課程,這三點(diǎn)就是我們打造大模型應(yīng)用開發(fā)服務(wù)的重點(diǎn)”,英特爾的技術(shù)專家表示。
RAG應(yīng)用鏡像實(shí)踐拆解
火山引擎方面,AI能力出色的包括豆包、扣子、HiAgent這些產(chǎn)品。“英特爾所做的事情相當(dāng)于是為普通開發(fā)者提供一張入場券,幫助他們降低門檻,更容易上手嘗試”,英特爾技術(shù)專家表示,“開發(fā)者可以在此平臺上進(jìn)行諸多嘗試。比如可以直接嘗試大模型開發(fā)聊天工具,通過熟悉提示詞的方式,從基礎(chǔ)的RAG(檢索增強(qiáng)生成)到高級的模塊化RAG,再到更多模態(tài)的應(yīng)用,不斷豐富數(shù)據(jù)基礎(chǔ)?!?/p>
以RAG實(shí)踐為例,其核心流程分為兩階段:
首先是數(shù)據(jù)源的準(zhǔn)備過程:企業(yè)需將內(nèi)部知識進(jìn)行文檔分段、向量化并存入向量庫,構(gòu)建語義檢索能力。此過程需優(yōu)化文檔切分粒度(如512/1024字符)、重疊文本設(shè)計(jì)等參數(shù),因?yàn)檫@直接影響后續(xù)語義的覆蓋范圍。
其次是問答處理的過程:用戶問題經(jīng)Embedding模型轉(zhuǎn)化為向量,通過語義匹配檢索相關(guān)上下文,再經(jīng)Reranking服務(wù),從若干個文本中選出最佳文本。最后經(jīng)過LLM服務(wù),把最佳文本內(nèi)容匯總成合適的回答回復(fù)給用戶。
英特爾技術(shù)專家指出,知識庫的衡量指標(biāo)包括召回率和準(zhǔn)確率,而Embedding、Chunk 配置參數(shù)、提示詞、Re-rank,以及大模型的理解能力,可能都會對指標(biāo)有影響?!爸挥猩钊雽?shí)踐,才能真正理解技術(shù)的精髓。我們希望用戶做大模型開發(fā)從這個基礎(chǔ)開始,而不是直接進(jìn)入智能體開發(fā)。因?yàn)閿?shù)據(jù)基礎(chǔ)差之毫厘,最終效果可能會差之千里”,他指出。
英特爾的首個鏡像采用了RAG場景,這與近幾年企業(yè)的AI應(yīng)用策略相符。因?yàn)槠髽I(yè)通常會經(jīng)歷從0到1的階段,通常第一件事就是要打造企業(yè)數(shù)據(jù)庫,從1到N的階段,才是需要把知識庫能力和Agent方案結(jié)合,從而可以快速復(fù)制或者是豐富AI的能力。
通過對Embedding模塊、向量數(shù)據(jù)庫、Re-Rank,以及7B參數(shù)的DeepSeek蒸餾模型進(jìn)行了全棧集成,并提供預(yù)優(yōu)化的Dataprep服務(wù)、在線問答服務(wù)及界面配置等,英特爾將RAG應(yīng)用濃縮到鏡像中。
此外,OPEA虛機(jī)鏡像的架構(gòu)相較于一般的開源架構(gòu)更具企業(yè)級特性,因?yàn)樗焐邆浣M件化服務(wù)的優(yōu)勢,可以根據(jù)需求靈活部署或修改。
那么,在此基礎(chǔ)上如何為開發(fā)者賦能?
首先,在火山引擎上申請時,第一步選擇云實(shí)例(可以選擇16vCPU,并在此基礎(chǔ)上選擇Ubuntu鏡像)。英特爾已將該鏡像泛化至公共鏡像中,并專門設(shè)置了知識庫問答的鏡像,3分鐘左右即可完成環(huán)境部署。
完成了環(huán)境搭建,開發(fā)者就可以進(jìn)行學(xué)習(xí)和實(shí)踐了。英特爾還通過循序漸進(jìn)的課程體系引導(dǎo)開發(fā)者掌握提示詞等核心技能、以及效果調(diào)優(yōu)等能力,幫助他們降低大模型應(yīng)用門檻。
“大模型應(yīng)用開發(fā)和傳統(tǒng)應(yīng)用開發(fā)區(qū)別很大,甚至更考驗(yàn)文科功底儲備。因?yàn)樵趹?yīng)用開發(fā)過程中,提示詞的編寫量可能遠(yuǎn)超代碼的編寫量,因?yàn)樾枰尨竽P湍軌蜃裱噶钊プ龊芏嗍虑?,提示詞往往可能會寫得更長。在這個過程當(dāng)中,自然語言非常重要。內(nèi)置的大模型會發(fā)揮重要作用,用戶會發(fā)現(xiàn)大模型不是一個工具而是一個‘伙伴’,在不斷溝通、交互的過程當(dāng)中,應(yīng)用也逐漸完善起來”,英特爾技術(shù)專家表示。
在進(jìn)階方面,開發(fā)者完成開發(fā)部署后,想進(jìn)一步進(jìn)行生產(chǎn)部署時,也可以結(jié)合火山引擎其他云服務(wù),進(jìn)行快速的集群化部署等。
寫在最后
多年來,我們熟知的云計(jì)算服務(wù)有IaaS、PaaS,分別為云原生應(yīng)用的構(gòu)建提供基礎(chǔ)計(jì)算資源和軟件平臺級服務(wù)。而邁入AI時代,面對重新定義的大模型應(yīng)用架構(gòu)和開發(fā)運(yùn)營模式,云計(jì)算的邊緣在不斷擴(kuò)展,MaaS(模型即服務(wù))會成為互聯(lián)網(wǎng)企業(yè)核心的AI技術(shù)輸出能力,也是主要變現(xiàn)的能力。
對于火山引擎而言,PaaS層面已經(jīng)衍生出扣子這樣基于智能體、工作流方式的大模型應(yīng)用孵化平臺,IaaS 層面也會聚焦?jié)M足訓(xùn)練、開發(fā)驗(yàn)證等多樣算力的需求。同樣,英特爾通過至強(qiáng)6處理器的加持,對于輕量級大模型應(yīng)用開發(fā)場景,為開發(fā)者進(jìn)行部署、實(shí)踐降低了準(zhǔn)入門檻。
正如英特爾技術(shù)專家表示,這是一條從入門到全面成長的完整路線設(shè)計(jì)。目前,火山引擎智能體的發(fā)展非常完備,擁有良好的數(shù)據(jù)基礎(chǔ)后,便可更容易地掌握當(dāng)前熱門的技術(shù)棧(包括MCP等),這些技術(shù)棧與智能體能夠水到渠成地結(jié)合。未來,英特爾還將推出智能體開發(fā)套件,可以與火山引擎自身的智能體開發(fā)套件實(shí)現(xiàn)集成,實(shí)現(xiàn)更為強(qiáng)大的智能體應(yīng)用開發(fā)。