資訊在沃

陳天昊談智能體治理:從外形到人格特質,分級分類應對新挑戰

   發布時間:2026-04-28 12:02 作者:胡穎

近日,國家網信辦發布《數字虛擬人信息服務管理辦法(征求意見稿)》并面向社會公開征求意見,與此同時,社交平臺上關于“AI蒸餾”技術的討論熱度持續攀升。從“同事.skill”到“張雪峰.skill”,開發者嘗試將個人思維模式、表達風格轉化為可重復使用的“AI技能包”,這一創新應用在拓展人工智能場景的同時,也引發了關于智能體人格化及其潛在風險的廣泛爭議。

以“同事.skill”項目為例,該技術通過分析員工在職期間產生的飛書、釘釘、郵件等數字痕跡,提煉其工作經驗與行為模式,使其離職后仍能通過系統復用原有溝通方式。而“張雪峰.skill”則進一步將目標轉向公眾人物,試圖基于著作、采訪、語錄等資料,構建包含“核心心智模型”“決策啟發式”和“表達DNA”的虛擬人格,使其能夠模擬張雪峰的視角回答教育規劃問題。清華大學人工智能國際治理研究院專家陳天昊指出,前者主要涉及勞動者權益保障與就業替代問題,后者則將“現實個體能否被轉化為可交互的人格化文檔”這一倫理挑戰推至臺前。

針對智能體人格化是否為技術發展必然趨勢的疑問,陳天昊分析稱,當前AI應用已從基礎聊天系統演進為具備記憶與工具調用能力的智能體,為維持復雜交互中的行為一致性,系統往往需要穩定的人格設定。他強調,當前討論的核心不應是“是否會出現人格化”,而是這種趨勢正以更低門檻、更高復制性加速擴散,使得人格形成、模仿與邊界的治理成為迫在眉睫的現實問題。

在治理路徑方面,陳天昊提出建立分級分類框架的思路。他建議從兩個維度衡量風險:一是對象的人格敏感程度,例如未成年人、英雄烈士等群體需更高強度保護;二是技術路徑對人格內核的貼近程度,不同蒸餾技術帶來的風險差異需差異化監管。他以“張雪峰.skill”為例說明,若系統僅模擬表達風格與互動方式,其風險可能低于深度解析決策邏輯與記憶結構的技術。

對于正在征求意見的管理辦法,陳天昊認為其已體現分類監管意識,例如對高敏感對象設置嚴格保護條款,并嘗試覆蓋技術提供者、使用者、傳播平臺等全鏈條。但他同時指出,文件目前側重于數字人形象、聲音等外在特征的模擬,對人格特質作為整體系統的保護仍顯不足。他舉例稱,現實中的人格化智能體可能通過行為規則、判斷邏輯等非視覺元素構建虛擬人格,因此后續完善需將規制重心從外形模擬轉向人格特質的建構過程,以更全面應對技術變革帶來的挑戰。

 
 
更多>同類內容
全站最新
熱門內容