“百模大戰(zhàn)”中,騰訊大模型頗具獨特性。它的技術(shù)底座是一系列的行業(yè)大模型,客戶只要加入自己的場景數(shù)據(jù),就可以生成契合自身業(yè)務(wù)需要的專屬模型。產(chǎn)品能力方面,它依托騰訊云TI平臺構(gòu)建行業(yè)精調(diào)解決方案;產(chǎn)品應(yīng)用方面,在騰訊會議多款頭部SaaS產(chǎn)品中應(yīng)用;落地方面,智能客服、OCR、跨模態(tài)檢索等都有實踐。
證券時報記者張一帆采訪鄭海清(右)
騰訊云工業(yè)AI解決方案總經(jīng)理鄭海清認為,能夠?qū)ζ髽I(yè)產(chǎn)生長期價值的,應(yīng)該是行業(yè)化的、專有的模型。“2024年一定是大模型應(yīng)用爆發(fā)的一年,我們的方向是更清晰的,騰訊將堅持長期主義,一定要去進行規(guī)?;膹?fù)制?!?/p>
證券時報記者:騰訊云服務(wù)是一個很多年的業(yè)務(wù),2023年是大模型落地的第一年,這給云服務(wù)業(yè)務(wù)帶來哪些新的發(fā)展機遇?
鄭海清:ChatGPT問世之后,搜索量出乎很多人的意料,對騰訊云來講,這是一個百年不遇的機會。
第一,從大型跨國企業(yè)、央國企,到一些初創(chuàng)企業(yè)、中小規(guī)模企業(yè),都非常急迫地想知道,大模型能夠為他們帶來什么樣的變化,對大模型都有非常大的期待。他們更希望能夠從云計算公司、從騰訊這樣的互聯(lián)網(wǎng)公司知道,該怎么樣利用大模型、怎么樣利用AI,能夠更快速地跟他的業(yè)務(wù)產(chǎn)生關(guān)聯(lián),這對我們這些做平臺公司而言,相當(dāng)于打開了一扇門。
第二,我們有一系列的應(yīng)用,比如騰訊會議,實現(xiàn)了用大模型去賦能。這表明,對云計算公司而言,可以把我們原來規(guī)劃的一些AI的能力、大模型能力,跟這些企業(yè)的應(yīng)用做更多的結(jié)合。
第三,大模型背后有算力、有存儲,有對于高速網(wǎng)絡(luò)的需求。這也為云計算在傳統(tǒng)行業(yè)內(nèi)的普及和推廣起到了加速作用。
證券時報記者:騰訊在2023年6月發(fā)布了大模型,它的特點、優(yōu)勢是什么?
鄭海清:去年發(fā)布行業(yè)大模型時,很多客戶問:騰訊的通用大模型還沒有發(fā)布,為什么會先發(fā)布行業(yè)大模型?這背后是我們在做大模型或者做人工智能的時候的一貫思路。
我們認為,能夠?qū)ζ髽I(yè)產(chǎn)生長期價值的,應(yīng)該是行業(yè)化的、專有的模型。相對于萬金油、門門通那種“通才”,大部分的企業(yè)是依賴于領(lǐng)域內(nèi)的專家、專業(yè)人士這一類的“專才”來幫他們提供推動產(chǎn)品的創(chuàng)新、研發(fā)的創(chuàng)新。行業(yè)大模型就是我們認為的這一類的“專才”。所以我們在一開始就堅持行業(yè)大模型加MaaS(模型即服務(wù))服務(wù),去做差異化。我們看中的,是怎么樣結(jié)合企業(yè)內(nèi)部的數(shù)據(jù),結(jié)合企業(yè)行業(yè)領(lǐng)域知識,把一個模型能夠跟某一個行業(yè)、某一個企業(yè)自身的業(yè)務(wù)形態(tài)、業(yè)務(wù)流程,做到緊密地耦合,幫助企業(yè)構(gòu)建他們專屬的模型應(yīng)用,實現(xiàn)提質(zhì)增效。
第二,現(xiàn)在大部分企業(yè)在做AI、做大模型的時候,有著嚴重的“算力焦慮”,或者圍繞大模型的整個一套AI架構(gòu),看作是一整套的方案去進行優(yōu)化的。所以我們有幾塊核心的技術(shù)。我們對于在大模型當(dāng)中所應(yīng)用到的高速網(wǎng)絡(luò),推出了星脈網(wǎng)絡(luò)產(chǎn)品,它能夠把整個的帶寬做到3.25 TB,把整個GPU的使用效率提升40%左右,而對于未來運營大模型,也能夠把整個的網(wǎng)絡(luò)成本降到30%—60%。
第三,我們行業(yè)化大模型產(chǎn)品,除了幫助企業(yè)構(gòu)建基于混合云的一套大模型技術(shù)架構(gòu),最重要的是怎么樣把大模型的服務(wù)的能力提供給客戶,客戶要能夠把它用起來。所以我們推出了基于TI平臺的一整套全新的大模型工具鏈,企業(yè)數(shù)據(jù)提取、標(biāo)注,模型的精調(diào),都能夠做到接近于零代碼。
證券時報記者:發(fā)布至今,騰訊大模型產(chǎn)品取得哪些進展?在推廣中有哪些比較典型的案例?
鄭海清:我們做了一些比較有意思的嘗試。第一個是電氣行業(yè)的客戶,電氣柜柜體設(shè)計時,原來有大量的線下圖紙,需要很多的設(shè)計工程師,把電路圖、電路板,包括里面的銅板、開關(guān),都要重新做一些設(shè)計。我們基于大模型,對此做了抽象化,幫助這些設(shè)計師能夠更快地完成設(shè)計,整個設(shè)計的效率提升了大概30%—40%。
第二個場景是國內(nèi)的一家頭部的航空航天企業(yè),利用大模型解決在飛機研發(fā)過程中結(jié)構(gòu)仿真的問題。原來的結(jié)構(gòu)仿真利用軟件、利用算子去做一些數(shù)學(xué)或者是物理的模型把結(jié)果算出來,需要非常多的算力去計算;現(xiàn)在把計算過程省略掉,用大模型把這個結(jié)果給預(yù)測出來。我們現(xiàn)在做了一些小規(guī)模的測試,至少有一到兩個量級的提升。
第三是騰訊云AI的團隊比較擅長的工業(yè)質(zhì)檢領(lǐng)域。一類項目在冷啟動的時候,傳統(tǒng)上可能需要上千張的圖片來做樣本去訓(xùn)練,需要告訴AI,有哪些種類的不良。現(xiàn)在通過大模型,它有很強的學(xué)習(xí)能力和泛化能力,可以把上千張不良樣本的需求,能夠降到大概十幾、幾十張,這使我們整個AI項目冷啟動大大提速。
第四類,在汽車、出行等行業(yè),常用的傳統(tǒng)的客服機器人場景。提供一個AI大模型,幫助企業(yè)內(nèi)部人事服務(wù)、售后工程師,面向客戶的一些問題的查詢?nèi)ベx能。
證券時報記者:騰訊大模型落地了非常多的場景。項目落地的過程中,您感受到客戶最關(guān)心什么?
鄭海清:第一是安全。我們大模型在企業(yè)應(yīng)用的時候,需要投喂很多企業(yè)自己的一些數(shù)據(jù)和語料,有一些他們自己的核心競爭力的數(shù)據(jù)。我們在這個過程中,一方面能夠幫助企業(yè)把一些敏感詞匯過濾掉,另一方面在整個架構(gòu)上允許數(shù)據(jù)在本地,模型在公有云、也可以在線下,來解決企業(yè)在數(shù)據(jù)安全上的顧慮。
第二,企業(yè)不需要一個“胡說八道”的大模型,而是要有一個精準(zhǔn)性的答案。我們通過基于TI平臺的工具鏈,確保企業(yè)可以在我們提供給他的模型基礎(chǔ)之上,以一個低門檻的方式,去進行模型的再訓(xùn)練和精調(diào)。我們還會在一開始的時候,有一個陪跑的過程。
第三,關(guān)注成本。我們聚焦架構(gòu)優(yōu)化,幫助企業(yè)以更少的算力去幫助企業(yè)能夠跑出一個基本的模型,使大模型的算力需求跟目前市面上通用大模型相比,能夠降到30%左右。同時,還通過像QGPU的方式,通過騰訊的星脈網(wǎng)絡(luò),能夠讓已有的資源的使用效率達到最大的提升。以星脈網(wǎng)絡(luò)為例,可以使整個通信的成本下降40%—60%。
證券時報記者:很多人認為今年是大模型落地應(yīng)用的元年,騰訊云是怎么研判大模型的市場演進的?
鄭海清:2024年大概率是大模型應(yīng)用爆發(fā)的一年。我們還在做一些準(zhǔn)備工作,包括一些基礎(chǔ)模型的迭代,包括模型本身的調(diào)整和適配,也涉及一些場景的探索。我們2024年的方向是更清晰的。
首先,圍繞服務(wù)機器人,結(jié)合不同的企業(yè)的數(shù)據(jù)做優(yōu)化,做到企業(yè)擁有自己的AI機器人,讓企業(yè)每一個研發(fā)人員、營銷人員,都有自己的AI助手。
第二,騰訊把AI的能力、把大模型能力,以API的方式輸出,現(xiàn)在有很多的合作伙伴,會把騰訊大模型的API植入到它的應(yīng)用里去,圍繞一些營銷的SaaS應(yīng)用、巡檢的SaaS應(yīng)用等。這會帶來一些SaaS軟件的重構(gòu)。我覺得這一定是未來非常關(guān)鍵的應(yīng)用場景。包括我們周圍的生態(tài),也會在這里頭作為重點發(fā)展的方向。
證券時報記者:騰訊2024年對大模型的發(fā)展目標(biāo)是什么?
鄭海清:騰訊堅持長期主義,即我們一定要去進行規(guī)?;膽?yīng)用。這是首要目標(biāo)。
第二,我們的核心目標(biāo)是怎么樣讓企業(yè)能夠用得好、用得便宜,所以我們還會圍繞GPU的調(diào)度、能力的優(yōu)化、大模型輕量化等,做得更好。
第三,把周圍大模型生態(tài)構(gòu)建好。
責(zé)編:彭勃
校對:祝甜婷