3月底,馬斯克在內(nèi)的許多社會(huì)名流共同簽署了一份公開(kāi)信,希望包括OpenAI在內(nèi)的機(jī)構(gòu)至少把更高能力的AGI研發(fā)暫停6個(gè)月,從而讓人類(lèi)社會(huì)達(dá)成某種基于AGI(通用人工智能)威脅的協(xié)議。
這封信雖然文本不長(zhǎng),但是涵蓋了非常廣泛的內(nèi)容,內(nèi)含的問(wèn)題很豐富。
比如,人類(lèi)該如何算這筆賬——AGI讓信息渠道充斥宣傳甚至謊言;如果是人類(lèi)本來(lái)就喜歡和滿(mǎn)意的工作,是否應(yīng)該被AI取代?而這些效率提升,是否值得我們冒著“失去對(duì)文明控制”的風(fēng)險(xiǎn)?而人類(lèi)針對(duì)AGI的監(jiān)管體系又應(yīng)該如何搭設(shè)?
這封信最終的結(jié)果是引發(fā)了硅谷規(guī)模空前的觀點(diǎn)撕裂的大討論。畢竟如果以GPT3.5進(jìn)入人類(lèi)社會(huì)視野為起點(diǎn),對(duì)于AGI的發(fā)展,人類(lèi)還有太多的盲點(diǎn)沒(méi)有解決、有太多爭(zhēng)議沒(méi)有達(dá)成共識(shí)。但當(dāng)人類(lèi)還在爭(zhēng)吵時(shí),AGI已經(jīng)開(kāi)始在全球各地制造麻煩了,虛假信息和信息泄露都像是一個(gè)讓人不安的龐大黑箱。
因此,最近一段時(shí)間以來(lái),包括歐美日韓在內(nèi)的各個(gè)信息發(fā)達(dá)國(guó)家都開(kāi)始了對(duì)大模型監(jiān)管的討論。而在4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室也發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱(chēng)《辦法》)。
這份《辦法》的重要意義在于,它可以算是人類(lèi)社會(huì)面對(duì)AGI監(jiān)管中最早的官方文件之一。
而監(jiān)管視角往往是人們理解AGI中很獨(dú)特的一個(gè)角度:
不同于科學(xué)家視角有很多參數(shù)上的復(fù)雜解釋體系、有諸多復(fù)雜的模型框架流派。監(jiān)管者是社會(huì)利益的代言人,也往往是站在社會(huì)整體的角度去思考。因此監(jiān)管者的思路也往往更接近大部分人樸素的直覺(jué)。但它同時(shí)又代表了核心專(zhuān)家群體的思考,所以它也能部分回應(yīng)新事物的很多討論。
所以這份《辦法》其實(shí)可以成為很多人普通人去理解AGI的一個(gè)窗口,他可以幫助我們更好地理解和參與AGI討論。因?yàn)锳GI既不是天使,也不是魔鬼。而祛魅后的AGI也將成為我們公共生活中的重要部分。
“我是誰(shuí)”:生成式人工智能
如果站在硅谷的角度,AGI約等于大模型。它是通過(guò)優(yōu)化的模型、結(jié)構(gòu)語(yǔ)料庫(kù)和龐大的算力組合而成,帶有一點(diǎn)智慧體思想特征的計(jì)算機(jī)程序。
《文件》對(duì)這個(gè)“新物種”的劃入到了“生成式人工智能”行業(yè),即“基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)?!?/p>
顯然這是從AI與社會(huì)關(guān)系的角度出發(fā)。
畢竟AGI未來(lái)的技術(shù)特征會(huì)改變,模型大小會(huì)浮動(dòng),但它最終要追求與社會(huì)之間互動(dòng)的內(nèi)核不會(huì)變。而無(wú)論一個(gè)模型封閉開(kāi)發(fā)多久,其最終目的都是要面向社會(huì)做內(nèi)容輸出。這其實(shí)是過(guò)去輔助決策、檢索、安全、支付等垂直AI與AGI很核心的不同。
而從技術(shù)遠(yuǎn)景來(lái)看,任何有廣泛用戶(hù)基礎(chǔ)的“生成式AI”,其大概率都會(huì)是有AGI底層能力的產(chǎn)品。
而對(duì)于普通人來(lái)說(shuō),AGI(通用人工智能)這個(gè)名詞確實(shí)也有點(diǎn)太“魅惑”。許多人將AGI與人類(lèi)智慧相類(lèi)比,仿佛讓人看到了一張“賽博靈魂”,全然忘了AGI只是有一點(diǎn)智慧的苗頭,未來(lái)的發(fā)展其實(shí)還有巨大的不確定性。
所以與其說(shuō)我們未來(lái)是《西部世界》似的“AGI社會(huì)”,不如說(shuō)我們將迎來(lái)一個(gè)“生成式人工智能”的世界,這可能更貼近我們這一代人的技術(shù)現(xiàn)實(shí)。
“我屬于誰(shuí)”:服務(wù)提供者
在AGI倫理討論中存在一個(gè)經(jīng)典問(wèn)題:大模型生成的內(nèi)容,版權(quán)到底是屬于大模型公司、還是屬于辛苦寫(xiě)prompt(提示詞)的用戶(hù)?
《辦法》雖然沒(méi)有明確規(guī)定版權(quán)的歸屬,但在監(jiān)管上劃出了責(zé)任義務(wù),可以供更多人參考。根據(jù)《辦法》:
“利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個(gè)人(以下稱(chēng)‘提供者’),包括通過(guò)提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任”。
如果沿用這個(gè)思路,負(fù)責(zé)人其實(shí)既不屬于大模型的研發(fā)人員、也不屬于用戶(hù),而是屬于連接大模型與用戶(hù)之間的服務(wù)提供者。
當(dāng)然,在大部分情況下AGI的開(kāi)發(fā)者和API提供者應(yīng)該是同一個(gè)主體。但隨著技術(shù)生態(tài)的演進(jìn),不同層次的主體可能會(huì)變得多元化。
明確中間的服務(wù)提供者承擔(dān)責(zé)任,其實(shí)也符合“生成式人工智能”的官方定義。同時(shí),這樣的權(quán)責(zé)劃分其實(shí)也倒逼未來(lái)上游產(chǎn)業(yè)鏈必須達(dá)成足夠好的內(nèi)容互信。
AGI的“內(nèi)容權(quán)”:需要標(biāo)識(shí)
與版權(quán)問(wèn)題類(lèi)似的爭(zhēng)論是:AGI內(nèi)容是否可以與人類(lèi)享受的內(nèi)容“同權(quán)”?
《辦法》明確對(duì)AGI內(nèi)容做出了限制,出現(xiàn)在了兩個(gè)地方:
·“按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)生成的圖片、視頻等內(nèi)容進(jìn)行標(biāo)識(shí)?!?/p>
·“提供者應(yīng)當(dāng)根據(jù)國(guó)家網(wǎng)信部門(mén)和有關(guān)主管部門(mén)的要求,提供可以影響用戶(hù)信任、選擇的必要信息,包括預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來(lái)源、規(guī)模、類(lèi)型、質(zhì)量等描述,人工標(biāo)注規(guī)則,人工標(biāo)注數(shù)據(jù)的規(guī)模和類(lèi)型,基礎(chǔ)算法和技術(shù)體系等。”
關(guān)于AGI內(nèi)容一直存在爭(zhēng)議。尤其在GPT內(nèi)測(cè)的時(shí)候,系統(tǒng)有時(shí)候表現(xiàn)得像是一個(gè)村口玩手機(jī)的大爺。它有時(shí)會(huì)直接給用戶(hù)一些包含價(jià)值判斷的觀點(diǎn),卻沒(méi)有足夠說(shuō)服力的信息佐證。
如果《辦法》落地,AGI就會(huì)徹底告別“口說(shuō)無(wú)憑”的跑火車(chē)式的內(nèi)容輸出,轉(zhuǎn)而衍生出一些搜索似的工具屬性。而像過(guò)去拿著AI合成作品去美術(shù)比賽拿獎(jiǎng)的事情,也將徹底變成一段“黑歷史”。
這其實(shí)與法律的精神相匹配,AI在內(nèi)容生成上是絕對(duì)的強(qiáng)者,他自然也需要承擔(dān)更多的舉證義務(wù)。而多模態(tài)的內(nèi)容形態(tài)可能存在巨大的內(nèi)容風(fēng)險(xiǎn),自然也需要相應(yīng)的制約機(jī)制。
相反,如果讓AGI內(nèi)容與人類(lèi)內(nèi)容完全同權(quán),可能會(huì)對(duì)人類(lèi)自己的內(nèi)容生態(tài)產(chǎn)生難以評(píng)估的影響。
“監(jiān)管生態(tài)”:阿西羅馬原則
在開(kāi)頭針對(duì)OpenAI的公開(kāi)信里有一個(gè)小細(xì)節(jié),它提出應(yīng)該有一個(gè)審計(jì)的生態(tài)(ecosystem),而非體系(system)。
而公開(kāi)信也提到了阿西羅馬AI原則(Asilomar AI Principles),即先進(jìn)AI對(duì)人類(lèi)的影響會(huì)是一個(gè)文明級(jí)的,因此對(duì)它的規(guī)劃和管理所需要耗費(fèi)的資源,應(yīng)該是與其本身耗費(fèi)的資源相匹配的。
換言之,如果生成式AI會(huì)是一個(gè)龐大的體系,那么就不能僅僅靠某個(gè)環(huán)節(jié)、某個(gè)主體完全實(shí)現(xiàn)監(jiān)管。
除了繼續(xù)強(qiáng)調(diào)既有法律的監(jiān)管地位外,《辦法》中也強(qiáng)調(diào)了對(duì)生成式AI的全流程監(jiān)管。
比如語(yǔ)料庫(kù)(“預(yù)訓(xùn)練數(shù)據(jù)”)必須合法合規(guī)、數(shù)據(jù)標(biāo)記必須培訓(xùn)“清晰、具體、可操作的標(biāo)注規(guī)則”、使用場(chǎng)景必須符合規(guī)范并承擔(dān)相應(yīng)責(zé)任、內(nèi)容本身需要被標(biāo)注、用戶(hù)使用過(guò)程中要有明確的舉報(bào)反饋通道等等。
既然AGI會(huì)成為龐大的生態(tài)底座,那么監(jiān)管者其實(shí)也需要用更多元化的方式去執(zhí)行監(jiān)管任務(wù)。
因此盡管大模型有一定的黑箱屬性,但通過(guò)一整套組合拳,也足以倒推技術(shù)黑箱后的合規(guī)能力,從而達(dá)到“開(kāi)箱”的目的。
而為了進(jìn)一步明確開(kāi)發(fā)者責(zé)任,《辦法》中還加入了這么一條:
“對(duì)于運(yùn)行中發(fā)現(xiàn)、用戶(hù)舉報(bào)的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過(guò)濾等措施外,應(yīng)在3個(gè)月內(nèi)通過(guò)模型優(yōu)化訓(xùn)練等方式防止再次生成?!?/p>
換言之,如果監(jiān)管方只是想用“內(nèi)容過(guò)濾”的手段逃避進(jìn)一步的模型優(yōu)化責(zé)任,在《辦法》中是違規(guī)的——AGI需要一個(gè)合規(guī)的靈魂而不只是合規(guī)的API。
“馴火”
有很多人將AGI的發(fā)明比作“火”,人類(lèi)學(xué)會(huì)了生火、享受火的文明成果,但同時(shí)也要花更漫長(zhǎng)的時(shí)間去“馴火”。
在前面提到的公開(kāi)信里,提出一個(gè)好的AGI應(yīng)該滿(mǎn)足至少幾個(gè)標(biāo)準(zhǔn),準(zhǔn)確、安全、可解釋、透明、魯棒、對(duì)齊一致、值得信賴(lài)和忠誠(chéng)的(accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal)。
換言之,AGI絕不能像現(xiàn)在這樣,成為一個(gè)玄學(xué)般煉丹爐式的黑箱。它應(yīng)該對(duì)人類(lèi)有更高確定性的利好。
所以公開(kāi)信提出了更多遠(yuǎn)景的技術(shù)監(jiān)管設(shè)想,比如建立一個(gè)龐大算力規(guī)模的、專(zhuān)業(yè)垂直的監(jiān)管體系,達(dá)成某種底層的代碼公約等等。這些提議是否值得落地,還需要更多的行業(yè)討論。但一個(gè)相對(duì)具有確定性的事情是:
就像人類(lèi)在“馴火”的過(guò)程中才更加了解“火”一樣,人類(lèi)社會(huì)只有不斷與AGI互動(dòng)、博弈的過(guò)程中,或許才可以更加了解AGI。