作者 | 祝世虎 光大信托科技部副總經理、數據中心總經理;CIC金融科技和數字經濟發展專家委員會委員
來源 | 《中國銀行業》雜志2023年第5期
導語:回顧人類歷史,技術和倫理緊密交織,面對科林格里奇困境,筆者認為,社會倫理優先于技術創新。
在新興技術的設計和開發過程中,應優先考慮和滿足為人類服務的倫理要求,最大限度利用技術創新造福人類。結合我國國情,對于AIGC的治理分為監管治理、行業自律、企業自治、全民共治四個方面。
ChatGPT發展與治理面臨科林格里奇困境
ChatGPT是OpenAI推出的聊天機器人,通過自然對話方式與用戶交互,可以處理復雜語義任務,包括文本生成、自動問答、翻譯、代碼生成等,在人們的工作生活中存在著廣泛的應用,這種應用涉及多元主體,涵蓋多個領域。
本質上而言,ChatGPT是AIGC(Artificial Inteligence Generated Content)人工智能生成內容的一種。從技術角度看,AIGC的發展與應用,是一個新技術形成新生產力的問題;從治理角度看,是一個牽一發而動全身的社會問題;從哲學角度看,其中蘊藏著人類與AI邊界的哲學問題。
綜合來看,ChatGPT的發展與治理是一個典型的科林格里奇困境(Collingridge's Dilemma),指的是一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能難以爆發,反之如果控制過晚,技術已經成為經濟和社會結構的一部分,就可能走向失控,再來解決問題就會變得更加昂貴、更加困難。
ChatGPT的技術分析
從技術角度對ChatGPT的算法分析并不容易理解,筆者嘗試從邏輯思維角度解釋ChatGPT技術。OpenAI的工程師們接到的任務是:要做一個擁有人類智能的機器;工程師們的思路如下:首先,要創建一個“大腦”;其次,要整理學習資料;再次,掌握學習方法;最后,學成歸來。這就是ChatGPT技術路線的邏輯框架。
第一步,構建“大腦”。工程師認為這應該是一個“通用大腦”,這就是通用人工智能AGI的構想:AGI應該是一個大系統,系統的核心是一個與任務無關的“通用”大模型,大模型依靠大算力從海量大數據中學習人類的知識,從而形成AI智能,這一步體現了工程師的系統思維,與通用復用的工程思維。
第二步,整理學習資料。人類知識的載體是文字、語言、圖畫等,所以,工程師選擇了大型語言模型LLM(Large Language Model)。在工程師眼中,大算力、大存儲、大數據使得大模型的工程實踐成為可能,隨著數據越來越豐富,算力越來越強,模型越來越大,效果也會越來越好,這體現了工程師們“力大磚飛”的實用思維,但并沒有從算法上對“力大磚飛”進行嚴格論證。
第三步,掌握學習方法。在當時的NLP(Natural Language Processing)領域,深度學習模型已經遭遇瓶頸,通過增加模型層深來提升模型效果微乎其微,深度學習模型已經逐步被預訓練模型所取代,預訓練模型的公式為:模型性能=預訓練性能(數據+任務)+微調性能(數據+任務)。
在預訓練模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)兩種技術實現方式,兩者看似相似,實際上其底層邏輯卻截然不同。從十年前發表的論文來看,研究者大部分選擇了BERT技術,而工程師們大部分選擇了GPT技術。回頭看分析其原因,筆者認為研究者的思路一般是按部就班的:先是完成自然語言理解任務,而后是完成自然語言生成任務,這就是BERT技術。工程師則希望一步到位,越過自然語言理解任務,直接完成自然語言生成任務。
其具體的技術路線如下:GPT1使用預訓練方法來進行語言理解;GPT2采用了遷移學習技術高效利用預訓練信息進一步提高語言理解能力;GPT3解決了小樣本的泛化能力;GPT3.5通過指令遵循和tuning(微調)的技術進步,突破了人機交互的關鍵技術;GPT4則將上述技術實現工程化。
第四步,學成歸來。隨著大算力、大數據的“厚積薄發”,大模型“量變突破質變”,大語言模型的智力涌現(Emergent Abilities of Large Language Models)出現了。
縱觀人類技術發展史,一項新興技術的成功分為三個步驟:一是實驗室中技術的成功;二是工程師們對技術成本的降低;三是產業應用的試錯。目前,我們已經進入了產業應用的試錯階段。
ChatGPT的技術缺陷
盡管我們似乎看到,技術的進步在推動著ChatGPT的發展,但是由于技術的局限性,也導致ChatGPT存在一定技術缺陷。
應用平民化,但建模貴族化。應用平民化指的是ChatGPT提供了便捷的API接口,每個人都可以很方便地接入;建模貴族化指的是建模的成本太高了。ChatGPT的訓練需要大量的訓練樣本、大量的算力,這些背后更是數百名工程師以及大量內容提供者。總體而言,在應用平民化的同時,ChatGPT研究卻越來越貴族化。
AI“大而不便改”,使得人去適應AI。在ChatGPT的1750億個參數中,以“某種方式”存儲著人類的知識,但這些參數的邏輯關系、學習過程等從技術上卻尚未完全明確。這些參數的修改主要是靠訓練,而訓練依賴的是昂貴的數據集,會產生“大而不便改”的缺陷。所以,這可能會產生一個“反直覺”的問題:究竟是人去適應AI大模型,還是AI大模型去適應人。以人和手機為例,從客戶體驗角度看,好像是手機在適應人的操作,但本質卻是人去適應手機給我們帶來的生活方式!
智能缺陷:感知智能而非決策智能。從技術角度智能類型可以分為三類:基于貝葉斯公式的感知智能、基于先驗概率的決策智能、基于計算公式的計算智能。從前述ChatGPT的技術分析不難看出,ChatGPT是通過文本語言等訓練的模型,其智能類型是受限的,是局限在文字語言領域的感知智能,而非決策智能,更不是計算智能。
智能缺陷就是ChatGPT的使用邊界。例如,在金融機構中,ChatGPT不是決策智能,若用于風險決策將受到限制;ChatGPT不是計算智能,若用于資本計量也將受到限制;ChatGPT是語言領域的感知智能,是可以以文字助手的身份嵌入大部分與文本相關的工作。
AI算法固有缺陷。提起ChatGPT有人可能會有疑問,為什么ChatGPT只提供了API接口而很少開源,這就揭示了ChatGPT作為一種人工智能算法的固有缺陷:算法黑箱、算法魯棒性、算法歧視等。算法黑箱,是指由于算法模型的黑箱運作機制,其運行規律和因果邏輯并不會顯而易見地擺在研發者面前。算法魯棒性,指的是算法運行容易受到數據、模型、訓練方法等因素的干擾。算法歧視,指的是算法以數據為原料,如果初始使用的是有偏見的數據,無形中會導致生成的內容存在偏見或歧視,引發用戶對于算法的公平性爭議,這種歧視可能主要來自于資本對于訓練數據的控制。
ChatGPT靠數據訓練,其輸出的結果也是數據。從技術角度分析,在數據的處理過程中,開發公司對于數據安全的關注并不夠,所以,可能導致其存在數據安全缺陷,在與用戶數據交互的全過程中也可能存在風險與合規問題。
一是訓練數據的獲取,ChatGPT通過抓取互聯網上的信息獲得訓練數據,可能存在合規問題。
二是在個人信息收集階段,當用戶使用ChatGPT時,可能會輸入個人數據,根據《個人信息保護法》要求需要單獨授權。
三是在個人數據的加工使用階段,ChatGPT使用了RLHF(Reinforcement Learning from Human Feedback)的訓練方法,即以強化學習方式依據人類反饋優化語言模型,用戶使用過程中的輸入和交互信息可能會用于持續迭代訓練,進一步被用于為其他用戶提供服務,從而可能構成數據共享,這時已與用戶最初數據使用目的和范圍相悖,根據《個人信息保護法》要求需要重新授權。
四是數據泄露,用戶在使用過程中輸入的信息,以及企業用戶輸入的各類工作信息,可能導致公司敏感信息泄露。
五是算法缺陷導致數據主體行權困難,ChatGPT的算法黑箱與算法復雜性導致數據主體的基本權利,如更改權、刪除權、訪問權等行權困難。
ChatGPT的潛在風險
ChatGPT所引發的潛在社會問題主要來自工作崗位、“機器宣傳”、人與AI的邊界等方面,以及由此可能造成的一系列社會風險。
工作崗位被取代的潛在風險。ChatGPT推出以來,不少新聞報道或文章分析其會取代一些人的工作。ChatGPT本質上是通過科技創新提高生產效率,是生產力的躍升,這與歷史上的生產力提升一樣,比如,蒸汽機替代馬車、電力的廣泛使用替代蒸汽機等,都是以更少的人力去生產商品,讓節約的人力進入新興行業,增加新的商品和服務供給。雖然會在短時間內對人類的就業結構產生沖擊,但由于人力資源的稀缺性,中長期不會導致大規模失業的問題,只是就業結構發生了變化。
這種結構變化可以用一句話來概括:一群人的工作是發展AI,一群人的工作是被AI所取代,取代你的不是AI,而是先掌握AI能力的人。
“機器宣傳”的潛在風險。ChatGPT為代表的AIGC的內容生成,可以在短時間內制造大量包括文字與圖片在內的“新內容”,其受制于訓練數據的分布。也就是說,雖然ChatGPT的技術是理性、中立、客觀的,但是由于訓練數據存在歧視,可能導致輸出結果存在歧視,導致“機器宣傳”可能存在風險,這種風險在技術中立的掩蓋下具有一定的隱蔽性。所以,需要大力推動人工智能工具理性與價值理性的雙向平衡,構建內容與監管的融合統一。
“資本逐利”的潛在風險。在ChatGPT之前的一個熱點是元宇宙,ChatGPT火爆以后,元宇宙迅速降溫,給人的感覺是二者此消彼長。但從技術角度來看,AIGC客觀上為元宇宙中UGC(User Generated Content)創作提供了助力。元宇宙設想通過用戶創作內容的方式來打造元宇宙,而AIGC本身就是內容創作的輔助工具,通過AI和文本、繪圖、視頻的結合,形成了元宇宙內容創作的新生態。之所以給人此消彼長的感覺,其原因有三,表面原因是元宇宙的應用生態沒有形成,如VR游戲等依然看不到突破;次要原因是流量遷移,即元宇宙的流量向ChatGPT的遷移;根本原因是資本的短期逐利性,資本來了又走,是一個階段的結束也是另一個階段的開始。
潛在的法律風險。一是著作權。ChatGPT生成的文學作品、代碼等存在著著作權歸屬不清的問題。主要包括:我國現行知識產權法律體系均規定法律主體為享有權利、負有義務和承擔責任的人。
二是可能助長信息網絡犯罪活動罪。所謂幫信罪,即幫助信息網絡犯罪活動罪,我國《刑法》第二百八十七條明確規定,明知他人利用信息網絡實施犯罪,為其犯罪提供互聯網接入、服務器托管、網絡存儲、通信傳輸等技術支持,或者提供廣告推廣、支付結算等幫助。比如,犯罪分子使用ChatGPT的文字生成功能,形成極具說服力的釣魚電子郵件或消息,冒充人類或者組織騙取他人信息。
三是拒不履行信息網絡安全管理義務罪。ChatGPT的運營商,作為信息發布的網絡內容服務提供者,需要履行信息網絡安全管理義務。若被監管部門要求責令整改,而ChatGPT的運營商無法提供有效的管理措施,致使違法信息大量傳播,可能涉嫌拒不履行網絡安全管理義務的違法行為。而前文提及的ChatGPT“大而不便改”的缺陷,則加大了“運營商無法提供有效的管理措施”的可能性。
潛在的未知風險。人與AI能否“和諧”相處,關鍵是能否達成“共識”,這是一個潛在的未知風險。例如,人類認為:人具有創造性,AI無法開展創造性工作,但AI“認為”:AI使人類的創造力大幅提升。人類認為:畢加索的畫是抽象的創造性,但AI“認為”:畢加索的畫風不過是一個模型,通過參數調整會生成多幅畢加索的畫。人類認為:人類在利用AI擴展人的智能,但AI“認為”:AI在利用人展示它的智能。所以,當“機器宣傳”的能力超過了原有的信息渠道;當AIGC產生的文字超過了人類歷史積累的文字;當非人類情感的思想被機器開發出來;當AI“過度智能”變得比人類更聰明;當硅基生產力超越碳基生產力,人類如何掌握對人類文明的控制,這也是一個值得深思的哲學問題。
ChatGPT的治理
回顧人類歷史,技術和倫理緊密交織,面對科林格里奇困境,筆者認為,社會倫理優先于技術創新。在新興技術的設計和開發過程中,應優先考慮和滿足為人類服務的倫理要求,最大限度利用技術創新造福人類。結合我國國情,對于AIGC的治理分為監管治理、行業自律、企業自治、全民共治四個方面。
監管治理:技術與內容并重。我國正在形成相對完善的法律體系,由《網絡信息內容生態治理規定》《網絡數據安全管理條例(征求意見稿)》《互聯網信息服務深度合成管理規定(征求意見稿)》等政策法規強調對內容的治理;《互聯網信息服務算法推薦管理規定》等強調對技術的治理,這體現了技術與內容并重的治理思路。建議在上述治理成果的基礎上,進一步加強對ChatGPT內容產業與應用模型的方向性引導。
行業自律:倫理先行、統籌發展。國家新一代人工智能治理專業委員會在2021年發布了《新一代人工智能倫理規范》,提出將倫理道德融入人工智能研發和應用的全生命周期。《中國關于加強人工智能倫理治理的立場文件》中明確寫到,人工智能治理應堅持倫理先行,通過制度建設、風險管控、協同共治等推進人工智能倫理監管;應加強自我約束,提高人工智能在研發過程中的算法安全與數據質量,減少偏見歧視;應提倡負責任使用人工智能,避免誤用、濫用,加強公眾宣傳教育。建議成立行業聯盟,統籌龍頭企業、研究機構和標準化組織等發揮協同優勢,聯合制定公約、標準、指南、準則等行業制度規范,建立可信賴的AIGC技術框架、標準體系、評測機制等。
企業治理:主體責任與社會職責。《關于加強互聯網信息服務算法綜合治理的指導意見》明確提出強化企業主體責任。同時也需要企業踐行科技向善理念、積極履行社會職責,例如,社會倫理、安全底線、內容治理等職責。建議加強企業與政府部門和行業組織的治理合作,為其提供可靠的技術能力,例如,內容審核技術能力、緊急辟謠技術能力等。
全民共治:提升防范意識,營造良性發展環境。一是深化公眾對于AIGC技術濫用所帶來的風險和危害的認知;二是提高廣大群眾對于虛假信息的鑒別能力;三是鼓勵廣大群眾主動參與內容與傳播等環節的輿論監督。全面共治,共同營造良性發展的生態。
(本文原載于《中國銀行業》雜志2023年第5期)