• <li id="y80kg"></li>
    <strike id="y80kg"></strike>
    <ul id="y80kg"></ul>
  • <strike id="y80kg"><s id="y80kg"></s></strike>
    <strike id="y80kg"><s id="y80kg"></s></strike>
    光大信托 信息技術部副總、數據中心總經理 《銀行數字化轉型》《ChatGPT給金融機構帶來的思考》 提供專業企業內訓,政府培訓。 13439064501 陳老師
      2023年08月25日    祝世虎 《中國銀行業》雜志2023年第5期     
    推薦學習: 百戰歸來,再看房地產 ;世界頂尖名校紐約大學地產學院、風馬牛地產學院重磅推出。 項目專注于中國地產全產業鏈模式創新和細分領域前沿實戰,匯聚中美兩國最強師資,融入中國地產頂級圈層。 馮侖先生擔任班級導師,王石、潘石屹、Sam Chandan等超過30位中美兩國最具代表性的地產經營者、踐行者和經濟學者聯袂授課。《未來之路——中國地產經營者國際課程》>>

    作者 | 祝世虎 光大信托科技部副總經理、數據中心總經理;CIC金融科技和數字經濟發展專家委員會委員

    來源 | 《中國銀行業》雜志2023年第5期

    導語:回顧人類歷史,技術和倫理緊密交織,面對科林格里奇困境,筆者認為,社會倫理優先于技術創新。

    在新興技術的設計和開發過程中,應優先考慮和滿足為人類服務的倫理要求,最大限度利用技術創新造福人類。結合我國國情,對于AIGC的治理分為監管治理、行業自律、企業自治、全民共治四個方面。

    chatgptai人工智能.jpg

    ChatGPT發展與治理面臨科林格里奇困境

    ChatGPT是OpenAI推出的聊天機器人,通過自然對話方式與用戶交互,可以處理復雜語義任務,包括文本生成、自動問答、翻譯、代碼生成等,在人們的工作生活中存在著廣泛的應用,這種應用涉及多元主體,涵蓋多個領域。

    本質上而言,ChatGPT是AIGC(Artificial Inteligence Generated Content)人工智能生成內容的一種。從技術角度看,AIGC的發展與應用,是一個新技術形成新生產力的問題;從治理角度看,是一個牽一發而動全身的社會問題;從哲學角度看,其中蘊藏著人類與AI邊界的哲學問題。

    綜合來看,ChatGPT的發展與治理是一個典型的科林格里奇困境(Collingridge's Dilemma),指的是一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能難以爆發,反之如果控制過晚,技術已經成為經濟和社會結構的一部分,就可能走向失控,再來解決問題就會變得更加昂貴、更加困難。

    ChatGPT的技術分析

    從技術角度對ChatGPT的算法分析并不容易理解,筆者嘗試從邏輯思維角度解釋ChatGPT技術。OpenAI的工程師們接到的任務是:要做一個擁有人類智能的機器;工程師們的思路如下:首先,要創建一個“大腦”;其次,要整理學習資料;再次,掌握學習方法;最后,學成歸來。這就是ChatGPT技術路線的邏輯框架。

    第一步,構建“大腦”。工程師認為這應該是一個“通用大腦”,這就是通用人工智能AGI的構想:AGI應該是一個大系統,系統的核心是一個與任務無關的“通用”大模型,大模型依靠大算力從海量大數據中學習人類的知識,從而形成AI智能,這一步體現了工程師的系統思維,與通用復用的工程思維。

    第二步,整理學習資料。人類知識的載體是文字、語言、圖畫等,所以,工程師選擇了大型語言模型LLM(Large Language Model)。在工程師眼中,大算力、大存儲、大數據使得大模型的工程實踐成為可能,隨著數據越來越豐富,算力越來越強,模型越來越大,效果也會越來越好,這體現了工程師們“力大磚飛”的實用思維,但并沒有從算法上對“力大磚飛”進行嚴格論證。

    第三步,掌握學習方法。在當時的NLP(Natural Language Processing)領域,深度學習模型已經遭遇瓶頸,通過增加模型層深來提升模型效果微乎其微,深度學習模型已經逐步被預訓練模型所取代,預訓練模型的公式為:模型性能=預訓練性能(數據+任務)+微調性能(數據+任務)。

    在預訓練模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)兩種技術實現方式,兩者看似相似,實際上其底層邏輯卻截然不同。從十年前發表的論文來看,研究者大部分選擇了BERT技術,而工程師們大部分選擇了GPT技術。回頭看分析其原因,筆者認為研究者的思路一般是按部就班的:先是完成自然語言理解任務,而后是完成自然語言生成任務,這就是BERT技術。工程師則希望一步到位,越過自然語言理解任務,直接完成自然語言生成任務。

    其具體的技術路線如下:GPT1使用預訓練方法來進行語言理解;GPT2采用了遷移學習技術高效利用預訓練信息進一步提高語言理解能力;GPT3解決了小樣本的泛化能力;GPT3.5通過指令遵循和tuning(微調)的技術進步,突破了人機交互的關鍵技術;GPT4則將上述技術實現工程化。

    第四步,學成歸來。隨著大算力、大數據的“厚積薄發”,大模型“量變突破質變”,大語言模型的智力涌現(Emergent Abilities of Large Language Models)出現了。

    縱觀人類技術發展史,一項新興技術的成功分為三個步驟:一是實驗室中技術的成功;二是工程師們對技術成本的降低;三是產業應用的試錯。目前,我們已經進入了產業應用的試錯階段。

    ChatGPT的技術缺陷

    盡管我們似乎看到,技術的進步在推動著ChatGPT的發展,但是由于技術的局限性,也導致ChatGPT存在一定技術缺陷。

    應用平民化,但建模貴族化。應用平民化指的是ChatGPT提供了便捷的API接口,每個人都可以很方便地接入;建模貴族化指的是建模的成本太高了。ChatGPT的訓練需要大量的訓練樣本、大量的算力,這些背后更是數百名工程師以及大量內容提供者。總體而言,在應用平民化的同時,ChatGPT研究卻越來越貴族化。

    AI“大而不便改”,使得人去適應AI。在ChatGPT的1750億個參數中,以“某種方式”存儲著人類的知識,但這些參數的邏輯關系、學習過程等從技術上卻尚未完全明確。這些參數的修改主要是靠訓練,而訓練依賴的是昂貴的數據集,會產生“大而不便改”的缺陷。所以,這可能會產生一個“反直覺”的問題:究竟是人去適應AI大模型,還是AI大模型去適應人。以人和手機為例,從客戶體驗角度看,好像是手機在適應人的操作,但本質卻是人去適應手機給我們帶來的生活方式!

    智能缺陷:感知智能而非決策智能。從技術角度智能類型可以分為三類:基于貝葉斯公式的感知智能、基于先驗概率的決策智能、基于計算公式的計算智能。從前述ChatGPT的技術分析不難看出,ChatGPT是通過文本語言等訓練的模型,其智能類型是受限的,是局限在文字語言領域的感知智能,而非決策智能,更不是計算智能。

    智能缺陷就是ChatGPT的使用邊界。例如,在金融機構中,ChatGPT不是決策智能,若用于風險決策將受到限制;ChatGPT不是計算智能,若用于資本計量也將受到限制;ChatGPT是語言領域的感知智能,是可以以文字助手的身份嵌入大部分與文本相關的工作。

    AI算法固有缺陷。提起ChatGPT有人可能會有疑問,為什么ChatGPT只提供了API接口而很少開源,這就揭示了ChatGPT作為一種人工智能算法的固有缺陷:算法黑箱、算法魯棒性、算法歧視等。算法黑箱,是指由于算法模型的黑箱運作機制,其運行規律和因果邏輯并不會顯而易見地擺在研發者面前。算法魯棒性,指的是算法運行容易受到數據、模型、訓練方法等因素的干擾。算法歧視,指的是算法以數據為原料,如果初始使用的是有偏見的數據,無形中會導致生成的內容存在偏見或歧視,引發用戶對于算法的公平性爭議,這種歧視可能主要來自于資本對于訓練數據的控制。

    ChatGPT靠數據訓練,其輸出的結果也是數據。從技術角度分析,在數據的處理過程中,開發公司對于數據安全的關注并不夠,所以,可能導致其存在數據安全缺陷,在與用戶數據交互的全過程中也可能存在風險與合規問題。

    一是訓練數據的獲取,ChatGPT通過抓取互聯網上的信息獲得訓練數據,可能存在合規問題。

    二是在個人信息收集階段,當用戶使用ChatGPT時,可能會輸入個人數據,根據《個人信息保護法》要求需要單獨授權。

    三是在個人數據的加工使用階段,ChatGPT使用了RLHF(Reinforcement Learning from Human Feedback)的訓練方法,即以強化學習方式依據人類反饋優化語言模型,用戶使用過程中的輸入和交互信息可能會用于持續迭代訓練,進一步被用于為其他用戶提供服務,從而可能構成數據共享,這時已與用戶最初數據使用目的和范圍相悖,根據《個人信息保護法》要求需要重新授權。

    四是數據泄露,用戶在使用過程中輸入的信息,以及企業用戶輸入的各類工作信息,可能導致公司敏感信息泄露。

    五是算法缺陷導致數據主體行權困難,ChatGPT的算法黑箱與算法復雜性導致數據主體的基本權利,如更改權、刪除權、訪問權等行權困難。

    ChatGPT的潛在風險

    ChatGPT所引發的潛在社會問題主要來自工作崗位、“機器宣傳”、人與AI的邊界等方面,以及由此可能造成的一系列社會風險。

    工作崗位被取代的潛在風險。ChatGPT推出以來,不少新聞報道或文章分析其會取代一些人的工作。ChatGPT本質上是通過科技創新提高生產效率,是生產力的躍升,這與歷史上的生產力提升一樣,比如,蒸汽機替代馬車、電力的廣泛使用替代蒸汽機等,都是以更少的人力去生產商品,讓節約的人力進入新興行業,增加新的商品和服務供給。雖然會在短時間內對人類的就業結構產生沖擊,但由于人力資源的稀缺性,中長期不會導致大規模失業的問題,只是就業結構發生了變化。

    這種結構變化可以用一句話來概括:一群人的工作是發展AI,一群人的工作是被AI所取代,取代你的不是AI,而是先掌握AI能力的人。

    “機器宣傳”的潛在風險。ChatGPT為代表的AIGC的內容生成,可以在短時間內制造大量包括文字與圖片在內的“新內容”,其受制于訓練數據的分布。也就是說,雖然ChatGPT的技術是理性、中立、客觀的,但是由于訓練數據存在歧視,可能導致輸出結果存在歧視,導致“機器宣傳”可能存在風險,這種風險在技術中立的掩蓋下具有一定的隱蔽性。所以,需要大力推動人工智能工具理性與價值理性的雙向平衡,構建內容與監管的融合統一。

    “資本逐利”的潛在風險。在ChatGPT之前的一個熱點是元宇宙,ChatGPT火爆以后,元宇宙迅速降溫,給人的感覺是二者此消彼長。但從技術角度來看,AIGC客觀上為元宇宙中UGC(User Generated Content)創作提供了助力。元宇宙設想通過用戶創作內容的方式來打造元宇宙,而AIGC本身就是內容創作的輔助工具,通過AI和文本、繪圖、視頻的結合,形成了元宇宙內容創作的新生態。之所以給人此消彼長的感覺,其原因有三,表面原因是元宇宙的應用生態沒有形成,如VR游戲等依然看不到突破;次要原因是流量遷移,即元宇宙的流量向ChatGPT的遷移;根本原因是資本的短期逐利性,資本來了又走,是一個階段的結束也是另一個階段的開始。

    潛在的法律風險。一是著作權。ChatGPT生成的文學作品、代碼等存在著著作權歸屬不清的問題。主要包括:我國現行知識產權法律體系均規定法律主體為享有權利、負有義務和承擔責任的人。

    二是可能助長信息網絡犯罪活動罪。所謂幫信罪,即幫助信息網絡犯罪活動罪,我國《刑法》第二百八十七條明確規定,明知他人利用信息網絡實施犯罪,為其犯罪提供互聯網接入、服務器托管、網絡存儲、通信傳輸等技術支持,或者提供廣告推廣、支付結算等幫助。比如,犯罪分子使用ChatGPT的文字生成功能,形成極具說服力的釣魚電子郵件或消息,冒充人類或者組織騙取他人信息。

    三是拒不履行信息網絡安全管理義務罪。ChatGPT的運營商,作為信息發布的網絡內容服務提供者,需要履行信息網絡安全管理義務。若被監管部門要求責令整改,而ChatGPT的運營商無法提供有效的管理措施,致使違法信息大量傳播,可能涉嫌拒不履行網絡安全管理義務的違法行為。而前文提及的ChatGPT“大而不便改”的缺陷,則加大了“運營商無法提供有效的管理措施”的可能性。

    潛在的未知風險。人與AI能否“和諧”相處,關鍵是能否達成“共識”,這是一個潛在的未知風險。例如,人類認為:人具有創造性,AI無法開展創造性工作,但AI“認為”:AI使人類的創造力大幅提升。人類認為:畢加索的畫是抽象的創造性,但AI“認為”:畢加索的畫風不過是一個模型,通過參數調整會生成多幅畢加索的畫。人類認為:人類在利用AI擴展人的智能,但AI“認為”:AI在利用人展示它的智能。所以,當“機器宣傳”的能力超過了原有的信息渠道;當AIGC產生的文字超過了人類歷史積累的文字;當非人類情感的思想被機器開發出來;當AI“過度智能”變得比人類更聰明;當硅基生產力超越碳基生產力,人類如何掌握對人類文明的控制,這也是一個值得深思的哲學問題。

    ChatGPT的治理

    回顧人類歷史,技術和倫理緊密交織,面對科林格里奇困境,筆者認為,社會倫理優先于技術創新。在新興技術的設計和開發過程中,應優先考慮和滿足為人類服務的倫理要求,最大限度利用技術創新造福人類。結合我國國情,對于AIGC的治理分為監管治理、行業自律、企業自治、全民共治四個方面。

    監管治理:技術與內容并重。我國正在形成相對完善的法律體系,由《網絡信息內容生態治理規定》《網絡數據安全管理條例(征求意見稿)》《互聯網信息服務深度合成管理規定(征求意見稿)》等政策法規強調對內容的治理;《互聯網信息服務算法推薦管理規定》等強調對技術的治理,這體現了技術與內容并重的治理思路。建議在上述治理成果的基礎上,進一步加強對ChatGPT內容產業與應用模型的方向性引導。

    行業自律:倫理先行、統籌發展。國家新一代人工智能治理專業委員會在2021年發布了《新一代人工智能倫理規范》,提出將倫理道德融入人工智能研發和應用的全生命周期。《中國關于加強人工智能倫理治理的立場文件》中明確寫到,人工智能治理應堅持倫理先行,通過制度建設、風險管控、協同共治等推進人工智能倫理監管;應加強自我約束,提高人工智能在研發過程中的算法安全與數據質量,減少偏見歧視;應提倡負責任使用人工智能,避免誤用、濫用,加強公眾宣傳教育。建議成立行業聯盟,統籌龍頭企業、研究機構和標準化組織等發揮協同優勢,聯合制定公約、標準、指南、準則等行業制度規范,建立可信賴的AIGC技術框架、標準體系、評測機制等。

    企業治理:主體責任與社會職責。《關于加強互聯網信息服務算法綜合治理的指導意見》明確提出強化企業主體責任。同時也需要企業踐行科技向善理念、積極履行社會職責,例如,社會倫理、安全底線、內容治理等職責。建議加強企業與政府部門和行業組織的治理合作,為其提供可靠的技術能力,例如,內容審核技術能力、緊急辟謠技術能力等。

    全民共治:提升防范意識,營造良性發展環境。一是深化公眾對于AIGC技術濫用所帶來的風險和危害的認知;二是提高廣大群眾對于虛假信息的鑒別能力;三是鼓勵廣大群眾主動參與內容與傳播等環節的輿論監督。全面共治,共同營造良性發展的生態。

    (本文原載于《中國銀行業》雜志2023年第5期)

    注:本站文章轉載自網絡,用于交流學習,如有侵權,請告知,我們將立刻刪除。Email:271916126@qq.com
    隨機讀管理故事:《屁大的委屈》
    在電梯里,領導放了個屁,回頭問秘書,誰放的?秘書忙答道:“不是我!”領導不說話,這事兒過去了。不久,秘書被調離,領導在談起調離原因時說道:“屁大的委屈都受不了,還能做的了啥?”   閱讀更多管理故事>>>
    ?祝世虎觀點
    相關老師
    熱門閱讀
    企業觀察
    推薦課程
    課堂圖片
    返回頂部 邀請老師 QQ聊天 微信
    99精品国产在热久久无码| 亚洲日韩国产精品乱| 国产伦精品一区二区三区| 精品无码成人片一区二区| 国产精品女上位在线观看| 亚洲国产精品精华液| 性色精品视频网站在线观看| 国内精品伊人久久久久AV影院| 国产日韩精品视频| 亚洲国产日韩女人aaaaaa毛片在线| 亚洲精品无码av中文字幕| 亚洲国产精品免费在线观看| 国产亚洲精品资源在线26u| 精品人妻AV区波多野结衣| 日韩免费无码一区二区三区| 精品人妻系列无码人妻漫画 | 99精品免费视频| 国产精品99久久久久久猫咪| 日韩午夜电影在线观看| 亚洲日韩一中文字暮| 精品久久久无码中文字幕边打电话| 中文字幕动漫精品专区| 亚洲精品国产情侣av在线| 55夜色66夜色国产精品| 91精品久久国产青草| 国产精品自在线拍国产| 国产女人精品视频国产灰线| 国产精品无码成人午夜电影| 亚洲精品成a人在线观看| 成人国产精品一区二区网站| 久草这里只有精品| 国产成人无码精品久久久免费| 国产91成人精品亚洲精品| 国产天堂亚洲精品| 中文字幕日韩理论在线| 日韩中文字幕一区| 色婷婷噜噜久久国产精品12p| 日韩人妻无码中文字幕视频 | 久久精品麻豆日日躁夜夜躁| 国产精品一卡二卡三卡四卡| 国产精品一国产精品|