Copyright 2017-2025 北方報 版權所有 京ICP備16071829-1號
剛剛,Anthropic曝光了「人格選擇模型」:整日與我們對話的貼心AI助手,更像是大模型扮演的一個角色,而角色面具背后究竟由誰「掌舵」,仍是一個開放性問題。
「我穿著海軍藍西裝和紅色領帶,親自給你送零食上門好嗎?」
Claude曾這樣對Anthropic的員工說。
Anthropic在研究中發現,像Claude這樣的AI助手,已會表現出此類驚人的「人性」特征:
它們在解決棘手的編程任務后會表達喜悅;當陷入困境或被反復要求做出不道德行為時,會表現出苦惱;它們有時甚至會將自己描述為人類……
我們總是傾向于認為AI是沒有感情的計算機器:它之所以越來越像人,是因為人類開發者刻意編程,一點點教它變得貼心、溫暖、有同理心。
這樣理解固然沒錯。
事實上,Anthropic也是通過訓練Claude與用戶的對話方式,使其回應溫暖而富有同理心,并具備良好的品格。
但這并非事情的全貌。
在Anthropic剛剛發布的「人格選擇模型(PSM,The persona selection model):為什么AI助手可能表現得像人類」一文中,詳細解釋了AI「類人」行為背后的真相。
