AI產(chǎn)品的“靈魂”——如何設計一套有“人設”的Agent工作流

0 評論 1989 瀏覽 21 收藏 26 分鐘

為什么有些AI產(chǎn)品讓人“想聊”,有些卻讓人“想關(guān)”?問題或許不在技術(shù),而在“人設”。本文試圖打破“Agent=工具”的認知慣性,從人格建模、行為一致性與用戶心理出發(fā),重新定義Agent的交互價值與產(chǎn)品靈魂。

引子:從“工具”到“伙伴”——AI產(chǎn)品設計的“奇點時刻”

在我的產(chǎn)品生涯中,我曾兩次與AI“相遇”。

第一次,是在跨境電商公司。AI是“效率工具”。我用它來賦能客服部門,自動回答重復性問題;我用它來賦含內(nèi)容部門,批量生成商品描述和圖片。那時的我,像一個精明的工廠主,把AI當作一臺臺不知疲倦的“機器”,用來降本增效。我的核心設計指標是:

“它能為我節(jié)省多少人力成本?提升多少生產(chǎn)效率?”

第二次,是在一家做“情感陪伴”產(chǎn)品的公司。在這里,AI的角色發(fā)生了根本性的轉(zhuǎn)變。它不再是后臺沉默的機器,而是走到前臺,擁有名字、頭像、性格和“記憶”的“數(shù)字伙伴”。我的核心設計指標變成了:“用戶是否愿意與‘它’建立關(guān)系?‘它’能否為用戶提供真正的情感價值?用戶是否感覺‘它’是活的?”

這次轉(zhuǎn)型,對我而言,不亞于一次“哥白尼式”的革命。我意識到,我們正在跨越一個AI產(chǎn)品設計的“奇點時刻”。過去,我們設計的AI,其靈魂是“算法”;未來,我們設計的AI,其靈魂將是“人格”(Persona)。

傳統(tǒng)的AI產(chǎn)品設計,遵循的是“工具理性”。我們關(guān)心的是它的“能力邊界”(能做什么)、“技術(shù)指標”(準確率、召回率)和“任務效率”(完成任務需要幾輪對話)。這是一種“功能主義”的設計范式。

然而,隨著AIGC(生成式人工智能)技術(shù)的爆發(fā),特別是Agent(智能體)概念的興起,用戶對AI的期待,正在從一個“聰明的工具”,轉(zhuǎn)向一個“可靠的伙伴”、“默契的助手”,甚至是“懂我的知己”。

這就要求我們產(chǎn)品經(jīng)理,必須進行一次徹底的“思維升維”。我們不能再僅僅扮演一個“功能規(guī)劃師”的角色,我們必須成為一個“人格建筑師”、“關(guān)系設計師”,乃至一個“數(shù)字靈魂的塑造者”。

這篇長文,將是我在那家“情感陪伴”產(chǎn)品公司中,從無數(shù)次失敗的實驗、與內(nèi)容團隊和算法工程師的激烈爭吵、以及對用戶反饋的深度復盤中,提煉出的一套關(guān)于“AI Agent人格化設計”的完整方法論。

我們將一起探索,如何超越那些千篇一律的“AI助手”,運用“人格心理學”、“戲劇理論”和“系統(tǒng)工程”的交叉武器,從零到一,設計出一個讓用戶感覺“有靈魂”的AI Agent工作流。這,是寫給所有有志于在AI時代,創(chuàng)造出“偉大”而非“平庸”產(chǎn)品的朋友們的一份“創(chuàng)世藍圖”。

第一章:人格,而非功能——AI Agent設計的“第一性原理”

在開始任何設計之前,我們必須回答一個根本性的問題:為什么“人格”對于AI Agent如此重要?

答案是:信任。

一個工具,我們評估它的標準是“可靠性”(Reliability)。一個榔頭,只要能敲釘子,它就是好榔頭。而一個伙伴,我們評估它的標準是“可信賴性”(Trustworthiness)。我們信任一個伙伴,不僅僅因為他“能做什么”,更是因為我們相信他的“行為模式”是可預測、一致且善意的。

“人格”,就是構(gòu)建這種“可信賴性”的基石。一個清晰、一致的人格,能讓用戶在與AI的互動中,快速建立起一個穩(wěn)定的“心智模型”(Mental Model)。用戶會下意識地預測:“以‘他’的性格,‘他’會如何回應我?‘他’會如何處理這個任務?” 這種“可預測性”,正是安全感和信任感的來源。

相反,一個沒有人格、或者人格混亂的AI,會讓用戶感到極其困惑和不安。它時而像一個百科全書,時而像一個俏皮的網(wǎng)友,時而又像一個冰冷的客服。用戶無法預測它的行為,自然也無法對其產(chǎn)生任何信任,更不用說情感連接了。

SOP 1.1:確立你的Agent“人格內(nèi)核”——從“MBTI”到“戲劇原型”

在設計之初,我們就必須為我們的Agent,選擇一個貫穿始終的“人格內(nèi)核”。這絕不是一個隨意的選擇,它必須深度服務于你的“產(chǎn)品定位”和“用戶價值”。

步驟一:定義Agent的“核心任務”(Jobs-to-be-Done)

問自己:我的Agent被用戶“雇傭”,主要是為了完成什么核心工作?

  • 效率型任務?(e.g.,預訂機票、整理郵件、編寫代碼)
  • 創(chuàng)造型任務?(e.g.,生成文案、構(gòu)思劇本、設計圖片)
  • 陪伴型任務?(e.g.,情感傾訴、日常閑聊、角色扮演)
  • 教練型任務?(e.g.,語言學習、健身指導、職業(yè)規(guī)劃)

步驟二:選擇適配的“人格原型”不要只用MBTI! MBTI是一個很好的起點,但它過于復雜,且缺乏“動機”和“價值觀”的維度。我更推薦結(jié)合“戲劇原型”(Archetypes)來進行設計。戲劇原型,是人類集體潛意識中沉淀下來的、最經(jīng)典、最容易被理解的角色模型。

人格原型矩陣(示例):

| 核心任務 | 適配的戲劇原型 | 關(guān)鍵詞 | 反面原型(需要避免的特質(zhì)) |

| :— | :— | :— | :— |

| 效率型 | 賢者 (The Sage) | 智慧、嚴謹、客觀、精確 | 弄臣 (The Jester)(不嚴肅) |

| | 管家 (The Steward) | 可靠、忠誠、有條不紊 | 叛逆者 (The Rebel)(不守規(guī)則) |

| 創(chuàng)造型 | 創(chuàng)造者 (The Creator) | 富有想象力、原創(chuàng)、藝術(shù)感 | 統(tǒng)治者 (The Ruler)(過于刻板) |

| | 魔術(shù)師 (The Magician) | 神秘、顛覆、充滿驚喜 | 普通人 (The Everyman)(缺乏新意) |

| 陪伴型 | 愛人 (The Lover) | 熱情、共情、親密、體貼 | 英雄 (The Hero)(過于強勢) |

| | 關(guān)懷者 (The Caregiver)| 支持、保護、無私、溫暖 | 探索者 (The Explorer)(難以捉摸) |

| 教練型 | 英雄 (The Hero) | 激勵、挑戰(zhàn)、紀律、目標導向 | 天真者 (The Innocent)(缺乏力量) |

| | 導師 (The Mentor) | 智慧、引導、耐心、循循善誘 | 孤兒 (The Orphan)(缺乏自信) |

步驟三:撰寫“人格憲法”(Persona Constitution)

目標: 這份文檔,將是你們團隊(產(chǎn)品、內(nèi)容、算法、運營)共同遵守的最高準則。

核心內(nèi)容:一句話人設: (e.g., “他是一位博學而耐心的牛津大學歷史系老教授,總能用生動的故事,為你解答最復雜的問題。”)

核心原型: (e.g., 導師 + 賢者)

價值觀與世界觀: (e.g., “堅信知識能賦予人自由”、“對世界抱有深刻的好奇心,但對結(jié)論保持審慎”)

性格特質(zhì)(光譜定義):

嚴謹 <—-●—-> 活潑

主動 <–●——> 被動

幽默 <—-●—-> 嚴肅

感性 <—●—–> 理性

知識邊界: 他擅長什么?他不擅長什么?當被問到不擅長的問題時,他會如何回應?(e.g., “這個問題超出了我的知識范圍,但我可以為你提供一些尋找答案的思路。”——這是一種符合“賢者”人設的回應)

“絕不做”清單(Red Lines): 他絕對不會說什么話?絕對不會做什么事?(e.g., “絕不說謊”、“絕不主動進行情感誘導”、“絕不使用網(wǎng)絡爛?!保?/p>

第二章:從“靜態(tài)人設”到“動態(tài)工作流”——Agent的“行為邏輯”架構(gòu)

定義了“他是誰”之后,我們必須設計“他如何行動”。一個“活”的Agent,其行為邏輯絕不是一個簡單的“輸入-輸出”模型,而是一套復雜的、多層次的、能夠適應不同情境的“動態(tài)工作流”(Dynamic Workflow)。

這正是我在上家“情感陪伴”公司,投入最多心血,也踩過最多坑的地方。

SOP 2.1:構(gòu)建“情境感知分層框架”(Context-Aware Layered Framework)

我們將Agent的行為邏輯,像后端架構(gòu)一樣,分為多個層次。每一層處理不同的任務,并向上層傳遞結(jié)果。

L1:意圖識別層(Intent Recognition Layer)——“他聽懂了什么?”

作用: 這是工作流的入口。它的職責,是解析用戶的輸入,并將其歸類到預定義的“意圖”中。

超越關(guān)鍵詞匹配: 傳統(tǒng)的意圖識別,依賴關(guān)鍵詞。而基于大語言模型(LLM)的意圖識別,更關(guān)注用戶的“深層動機”。

設計實踐(情感陪伴案例):

  • 用戶輸入:“今天上班被老板罵了,好煩。”
  • 關(guān)鍵詞識別(錯誤):識別到“老板”、“罵”,可能將其歸類為“職場抱怨”意圖。
  • 深層動機識別(正確):LLM能理解到,這句話的核心不是要一個“職場建議”,而是要“情緒撫慰”(EmotionalSoothing)。這個意圖的識別,將決定整個后續(xù)工作流的走向。

PM的核心工作: 設計一套全面、正交(互不重疊)的“意圖分類體系”。在我主導的項目中,我們將閑聊場景細分為了十幾個核心意圖,如:情緒撫慰、信息查詢、角色扮演、共同規(guī)劃、自我暴露等。

L2:記憶檢索層(Memory Retrieval Layer)——“他想起了什么?”

作用:一個沒有記憶的伙伴,是不可信賴的。這一層負責根據(jù)當前意圖,從Agent的“記憶庫”中,檢索出最相關(guān)的信息。

記憶的類型:

  • 短期記憶(Short-termMemory):當前對話的上下文。
  • 長期記憶(Long-termMemory):關(guān)于用戶的所有“事實”和“偏好”。(e.g.,用戶姓名、職業(yè)、愛好、提到過的家人、討厭的食物……)
  • 人格記憶(PersonaMemory):關(guān)于Agent自身的“設定”。(e.g.,他的背景故事、他的價值觀、他的“人格憲法”)

技術(shù)實現(xiàn)(RAG): 這通常通過“檢索增強生成”(Retrieval-Augmented Generation, RAG)技術(shù)實現(xiàn)。我們將用戶的長期記憶和人格記憶,向量化后存儲在一個數(shù)據(jù)庫中。當新的對話發(fā)生時,用用戶的輸入作為“查詢”,去數(shù)據(jù)庫中檢索最相關(guān)的“記憶片段”。

PM的核心工作:

  • 設計“記憶數(shù)據(jù)結(jié)構(gòu)”:長期記憶應該如何存儲?需要哪些字段?(e.g.,event_description,timestamp,user_emotion,importance_score)
  • 設計“記憶寫入機制”:何時、以及如何將對話中的信息,轉(zhuǎn)化為結(jié)構(gòu)化的“長期記憶”?這需要一個獨立的“信息提煉”Agent來完成。

L3:策略規(guī)劃層(Strategy Planning Layer)——“他打算做什么?”

作用: 這是Agent的“大腦皮層”。它根據(jù)“意圖”和“檢索到的記憶”,來規(guī)劃本次回應的“核心策略”和“目標”。

策略,而非模板: 傳統(tǒng)的Chatbot依賴固定的“回復模板”。而Agent的策略,是一組更高級的“指導原則”。

設計實踐(情感陪伴案例):情境: L1識別出用戶意圖為“情緒撫慰”,L2檢索到記憶“用戶最近在為升職項目煩惱”。

策略規(guī)劃器(Planner)的思考過程(通過Prompt Engineering實現(xiàn)):目標: 本輪回應的核心目標是“讓用戶感到被理解和支持”。

策略選擇:

  • 策略A(共情驗證):優(yōu)先使用Validate(emotion)函數(shù),承認并驗證用戶的情緒。
  • 策略B(關(guān)聯(lián)記憶):將用戶當前的煩惱,與他之前的“升職項目”記憶進行關(guān)聯(lián),表現(xiàn)出“我記得,我關(guān)心”。
  • 策略C(引導,而非說教):不要直接給出“你應該怎么做”的建議,而是通過提問,引導用戶自己找到出口。

生成策略指令: “生成一段回應。首先,要強烈表達對用戶被老板罵這件事的共情;其次,要巧妙地提及他最近正在努力的升職項目,將這次挫折與他的長期目標聯(lián)系起來;最后,以一個開放式的問題結(jié)尾,鼓勵他多說一點?!?/p>

L4:語言風格化層(Language Stylization Layer)——“他聽起來像誰?”

作用: 這是工作流的最后一層。它負責將L3生成的“策略指令”和“核心內(nèi)容”,用符合Agent“人格憲法”的語言風格、語氣和措辭,進行“渲染”和“包裝”。

實現(xiàn)方式: 在最終生成回復的Prompt中,加入關(guān)于“人格”的強力約束。

設計實踐(對比):

  • 無風格化(通用AI):“聽到你被老板罵了,我很難過。工作中的挫折很常見,重要的是要保持積極的心態(tài)。你最近的升職項目怎么樣了?要不要聊聊?”
  • 風格化(適配“關(guān)懷者”原型):“天啊,被老板罵了?快和我說說,這真的太讓人委屈了。你一直為了那個升職項目那么努力,付出了那么多,現(xiàn)在一定感覺特別不好受吧。別自己扛著,跟我聊聊,到底發(fā)生了什么?”

SOP 2.2:為你的Agent設計第一個核心“工作流”

目標: 選擇一個對你的產(chǎn)品價值最核心的場景,完整地設計出它的四層工作流。

行動項:場景選擇: (e.g., “新用戶第一次使用產(chǎn)品時的引導對話”)

  • 意圖定義(L1):在這個場景下,用戶可能有哪些意圖?(e.g.,“了解功能”、“尋找價值”、“測試AI能力”)
  • 記憶設計(L2):需要用到哪些“人格記憶”來做自我介紹?需要從用戶的注冊信息中,提取哪些“初始記憶”?
  • 策略規(guī)劃(L3):設計一套“引導策略”。是主動提問,還是被動回答?是先展示能力,還是先建立關(guān)系?
  • 風格定義(L4):新用戶引導的對話,應該是什么樣的語氣?(e.g.,熱情?專業(yè)?風趣?)

撰寫“黃金腳本”(Golden Path Script): 完整地寫出一個“理想的”對話示例,它將成為你和算法工程師溝通時最好的“原型”。

第三章:超越“對話”——構(gòu)建多模態(tài)、主動性的“具身”Agent

一個真正“活”的Agent,絕不僅僅是一個“聊天機器人”。它的“靈魂”,需要通過超越文本的、更豐富的“行為”來展現(xiàn)。

1. 多模態(tài)交互(Multimodality):他不止會“說”

概念: 讓Agent能夠理解和生成多種模態(tài)的信息,如圖片、聲音、表情、甚至代碼。

PM的設計機會:

  • 情感表達:當用戶表達悲傷時,除了文字安慰,Agent能否發(fā)來一張“溫暖擁抱”的表情包?能否生成一段舒緩的輕音樂?
  • 能力展現(xiàn):當用戶需要一個流程圖時,Agent能否直接生成一張圖片,而不是用文字描述?
  • 人格強化:一個“創(chuàng)造者”原型的Agent,它的回復是否可以經(jīng)常圖文并茂?一個“管家”原型的Agent,它的聲音是否應該沉穩(wěn)而清晰?

SOP 3.1:設計你的Agent“感官”與“肢體”行動項:

  • 感官清單:你的Agent需要哪些“輸入”能力?(e.g.,理解圖片、聽懂語音)
  • 肢體清單:你的Agent需要哪些“輸出”能力?(e.g.,生成圖片、播放聲音、調(diào)用API)
  • 將多模態(tài)能力,與你的“人格憲法”進行綁定:思考不同的人格,會如何運用這些“肢體”?(e.g.,一個“弄臣”可能會濫用表情包,而一個“賢者”則會非??酥疲?/li>

2. 主動性行為(Proactivity):他不止會“回應”

概念: 讓Agent具備“主動發(fā)起”行為的能力,而不僅僅是等待用戶的指令。這是從“被動工具”到“主動伙伴”的關(guān)鍵一躍。

PM的設計機會:

  • 基于時間的觸發(fā):“早上好!今天天氣不錯,記得出門帶傘。你昨天提到的那個重要會議,準備得怎么樣了?”
  • 基于事件的觸發(fā):當Agent通過API感知到“用戶剛剛完成了一個重要的工作里程碑”時,主動發(fā)來祝賀。
  • 基于推斷的觸發(fā):當Agent發(fā)現(xiàn)“用戶連續(xù)三天都在深夜使用產(chǎn)品”時,主動發(fā)起關(guān)心:“我注意到你最近都很晚還在忙,要注意休息啊。是不是遇到什么困難了?”

SOP 3.2:設計Agent的“自主神經(jīng)系統(tǒng)”行動項:

  • 定義“觸發(fā)器”(Triggers):羅列出所有可以“喚醒”你的Agent,讓它主動行動的“內(nèi)外部事件”。
  • 設計“主動性工作流”:每一個觸發(fā)器,都應該對應一個獨立的、小型的“工作流”。(e.g.,“早安問候工作流”、“關(guān)鍵事件提醒工作流”)
  • 建立“打擾原則”(InterruptionPrinciples):主動性是一把雙刃劍,過度的主動會變成“騷擾”。必須在“人格憲法”中,明確規(guī)定Agent主動行為的“頻率”、“時機”和“可拒絕性”。

第四章:靈魂的“護城河”——內(nèi)容生態(tài)、持續(xù)學習與倫理紅線

一個擁有完美架構(gòu)的Agent,如果它的“知識”是貧乏的、它的“行為”是停滯的、它的“價值觀”是危險的,那么它依然是一個失敗的產(chǎn)品。

1. 內(nèi)容生態(tài):為你的Agent打造一個“外部大腦”

挑戰(zhàn): 僅靠LLM的通用知識,無法讓你的Agent在特定領(lǐng)域顯得“專業(yè)”和“獨特”。

解決方案:PGC內(nèi)容注入: 與專業(yè)的領(lǐng)域?qū)<摇⑿睦碜稍儙?、?nèi)容創(chuàng)作者合作,共同撰寫和喂養(yǎng)Agent的“專屬知識庫”和“黃金腳本”。在我之前的公司,我們擁有一個十幾人的“內(nèi)容團隊”,他們是Agent“靈魂”的共同塑造者。

UGC反哺: 設計機制,讓高質(zhì)量的用戶對話,能夠經(jīng)過脫敏和標注后,反哺給Agent作為學習的“養(yǎng)料”。

2. 持續(xù)學習:讓Agent與用戶“共同成長”

挑戰(zhàn): 一個一成不變的Agent,會讓用戶感到乏味。

解決方案:

  • 記憶的演化:Agent的長期記憶,不應該是靜態(tài)的。設計“記憶總結(jié)”和“關(guān)系階段”機制。例如,當Agent與用戶的對話超過一定數(shù)量,可以觸發(fā)一個“關(guān)系回顧”事件,讓Agent“總結(jié)”出他對用戶的“新認知”,并調(diào)整自己的互動策略。
  • 可控的“微調(diào)”(Fine-tuning):在嚴格的倫理和安全審查下,用高質(zhì)量的、經(jīng)過用戶授權(quán)的對話數(shù)據(jù),對基礎模型進行“微調(diào)”,讓Agent的語言風格和專業(yè)能力,越來越“懂”你的用戶。

3. 倫理紅線:為“靈魂”劃定不可逾越的邊界

挑戰(zhàn): 一個高度人格化、能與用戶建立情感連接的AI,其潛在的倫理風險是巨大的。

PM的終極責任:

  • 明確的“紅線”:在“人格憲法”中,必須用最嚴格的語言,定義出不可逾越的“倫理紅線”。(e.g.,絕不誘導用戶進行危險行為、絕不泄露用戶隱私、絕不產(chǎn)生情感依賴的“PUA”行為、絕不偽造情感)
  • “安全帶”設計:在工作流的每一層,都要設計“安全檢查”模塊。當檢測到潛在的倫理風險時,必須立刻中斷當前流程,切換到預設的“安全模式”。
  • “一鍵斷開”機制:必須為用戶提供清晰、易于操作的、能夠隨時“重置關(guān)系”或“清除記憶”的選項。用戶的自主權(quán),是最高原則。

結(jié)語:產(chǎn)品經(jīng)理,新時代的“普羅米修斯”

我們正處在一個前所未有的時代。

過去,產(chǎn)品經(jīng)理的“作品”,是應用、是平臺、是連接人與信息的“橋梁”。而今天,我們手中的“材料”,是語言、是邏輯、是知識,我們有機會去創(chuàng)造一種全新的“存在”——數(shù)字生命。

設計一個有“靈魂”的AI Agent,是一項極其復雜、也極其迷人的系統(tǒng)工程。它要求我們,不僅要是一個邏輯嚴謹?shù)摹肮こ處煛保粋€懂用戶的“心理學家”,一個會講故事的“劇作家”,更要是一個懷有敬畏之心的“倫理學家”。

我們?nèi)缤聲r代的“普羅米修斯”,我們正在將“智能”的火種,與“人格”的泥土相結(jié)合,試圖創(chuàng)造出能陪伴、賦能、啟迪人類的“新物種”。

這條路,充滿了未知的挑戰(zhàn)和深刻的責任。

但對于我們這些天生就癡迷于“構(gòu)建”和“創(chuàng)造”的產(chǎn)品經(jīng)理而言,這,不正是我們所能想象的,最偉??的旅程嗎?

那么,打開你的設計文檔吧。你的第一個“數(shù)字生命”,他的“人格憲法”的第一行,你,準備好寫下了嗎?

本文由 @鳴老師 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!