探究微軟 HAX 背后的設(shè)計邏輯

0 評論 728 瀏覽 0 收藏 25 分鐘

微軟 HAX,不只是一個工具集,更是一種面向未來的設(shè)計哲學(xué)。本文深入拆解其背后的設(shè)計邏輯,從系統(tǒng)架構(gòu)到用戶體驗,從戰(zhàn)略意圖到生態(tài)布局,試圖還原微軟在新一代人機交互中的底層思考,為產(chǎn)品人和設(shè)計師提供一份值得參考的認知地圖。

“一款成熟的 AI,我們通常稱之為 Software?!鼻岸螘r間在播客聽到這樣的言論。

回想 2022 年初語言大模型橫空出世之前應(yīng)用于搜索、推薦的算法,一時間竟再認同不過。

不禁想起,早些時候,我們使用了豐富的案例介紹微軟 HAX 設(shè)計原則的文章——那么,人與 AI 的交互原則和模式,為何要區(qū)別于傳統(tǒng)軟件呢?

某天,在看庫布里克《2001 太空漫游》時,幡然醒悟。

我似乎陷入了將結(jié)果作為原因的邏輯悖論中。

傳統(tǒng)軟件像是片頭智人高舉的骨棒,是一個基于規(guī)則的確定性工具。在數(shù)百萬年間,人類在使用工具獲取的反饋中,培養(yǎng)了記憶與預(yù)期,人們也習(xí)慣于依賴可預(yù)測的工具生產(chǎn)勞動。

《2001 太空漫游》智人高舉骨棒作為工具準備砸下去。

片中“ HAL9000”人工智能,好似如今基于概率模型和動態(tài)學(xué)習(xí)的生成式 AI ,具有天然的隨機性和黑箱特質(zhì)。若沒有人類正確的引導(dǎo)和約束,最終悄無聲息地帶領(lǐng)人類走向失控。

《2001 太空漫游》宇航員發(fā)現(xiàn)正在排查有問題的 HAL9000。

這部 1968 年的科幻電影,在 AI 概念誕生的早期,就使用“HAL9000”的叛變警示了 AI 失控的風(fēng)險。AI 作為仍具黑箱特征的技術(shù),微軟的設(shè)計師和工程師如何使用 HAX 原則進行約束與引導(dǎo)?其背后遵循著怎樣的邏輯與思考?

這篇文章想與你探討微軟為什么要制定 HAX ——又靠什么支撐起這些規(guī)則?

我們一步步拆開它的邏輯脈絡(luò),看看這些設(shè)計思考是如何演化成一條條原則的。

01 人與 AI 的特征與局限

我們?yōu)槭裁床荒苡脤Υ齻鹘y(tǒng)的技術(shù)交互方式來應(yīng)用 AI 體驗?與其說是技術(shù)區(qū)別,不如說是人的心智和互動習(xí)慣不適應(yīng)新的技術(shù)。

思維如何被誤導(dǎo)?——人類心智的運作機制

《思考,快與慢》中,卡尼曼提出了兩種思維模式。

快思:依靠本能、快速、憑直覺運行,幾乎不耗費腦力。比如,野外看見蛇會警惕想跑。

慢想:需要刻意、專注、有邏輯地分析,非常耗費精力。比如,正在查資料寫文章的我。

在日常生活中,快思模式處理了絕大多數(shù)信息,但為了追求效率,依賴于個人經(jīng)驗的思維,常常引起系統(tǒng)性偏見。這與 AI 和人類 的交互體驗有什么關(guān)系?傳統(tǒng)軟件的錯誤通常顯而易見——”網(wǎng)絡(luò)未連接“、”創(chuàng)建失敗“、死機等機器反饋。這類明確的“失敗”信號會調(diào)用我們的“慢想”思維模式,讓我們用邏輯思維分析解決問題。

但是,AI 的錯誤卻是微妙但隱蔽的,他們通常“自信”地犯錯。如 GPT、Gemini、DeepSeek 等大語言模型應(yīng)用,生成看起來合理但不符合事實的“幻覺”。這種難以察覺的錯誤,不易讓人類觸發(fā)“慢想”模式,而更傾向于采用“快思”的思維理解內(nèi)容。

“快思”,這種思維模式總傾向于接收和處理看起來熟悉、流暢、易于理解的信息,即在書中提到的“認知放松”。你是否曾經(jīng)嘗試消除這類錯誤?但我們大多時候,并不會去懷疑一個 90% 時間里都有效,只有 10% 的時間里產(chǎn)生難以察覺的錯誤。

或者,你會去每一次都耗費大量時間精力去校對、批判、決策每一個 AI 的反饋嗎?

這是我們身為人類,在與 AI 交互中的局限性。

為了緩解這種局限性,HAX 設(shè)計原則在 4 個環(huán)節(jié)中多次提倡建立一個交互的緩沖帶,制造有益的摩擦。以便于人類有邏輯的“慢想”思維介入交互過程中的關(guān)鍵時刻,達到可控的目的。

我們?yōu)楹我浴叭诵浴钡姆绞脚c機器智能互動?——情感機制與交互效率

你是否有這樣的經(jīng)歷?跟“智能客服”溝通時,在它無法理解訴求時,我們通常氣急敗壞地向其表達不滿;在能完成訴求時對其說“謝謝”。

左圖:用戶在智能客服無法理解訴求時,憤然表達不滿情緒。

右圖:用戶在智能客服完成預(yù)期時,禮貌表達感謝。

人類的情感表達總是不可避免。為什么我們即使知道 AI 就是一個沒有情感的“概率機”,也會不自覺地把“TA”擬人化?是因為我們習(xí)慣于人類對話的社交模式。在與 AI 對話時,也會下意識地把 AI 當作可社交的對象,同時也在潛意識中期望它能遵守我們熟悉的社交規(guī)則。AI 在我們現(xiàn)如今的生活中通常充當一個效率工具,人類的情緒表達好像毫無作用。

難道,情感在 AI 與人的互動中沒有價值嗎?

馬文·明斯基認為:情感,也是一種思維方式。他在《情感機器》中提到,人類大腦擁有多種解決問題的方式,比如邏輯推理、空間想象等。不同的“情感狀態(tài)”,比如“恐懼”,會迅速改變大腦的運行模式——激活那些最適合應(yīng)對當前緊急狀況的“快思”類思維資源,以執(zhí)行躲避危險的任務(wù)。

在這套理論中,明斯基認為一個“智能”的系統(tǒng)需要類似情感的機制——它不是為了讓機器“感受”喜怒哀樂,而是為了讓機器能夠更靈活、更智能地思考和解決人類在社會溝通中經(jīng)常被忽略或未描述的“場景”問題。

遺憾的是,用戶所在物理世界中的大量“情緒”數(shù)據(jù),暫時無法被機器直接感知和理解。然而,人類卻習(xí)慣通過“情感”激活特定思維資源,來解決場景問題。

面對機器在這方面的局限時,HAX 原則試圖通過“場景預(yù)設(shè)”和“社會規(guī)則建?!钡姆绞剑瑏砟M人類的“情感思維”。比如,G3、G4 要求 AI 通過數(shù)據(jù)建模的方式,理解用戶所處的上下文和環(huán)境,預(yù)設(shè)不同場景下的響應(yīng)模式。這樣,用戶就無需將上下文場景或情緒告知給 AI。這也是從“個體”的角度出發(fā),用類似于模擬人類情感的快速響應(yīng)機制,使交互更符合用戶直覺的思維習(xí)慣。

圖片來源于微軟HAX Toolkit中的G3、G4 (文本經(jīng)谷歌網(wǎng)頁翻譯)

G5、G6 闡述 AI 需符合社會倫理、避免刻板印象,這不僅是道德層面的要求,更強調(diào)人類作為群居動物在社會中的“互動共識”。試想,AI 若反饋違背社會規(guī)范,充滿刻板印象的虛假信息,那將引發(fā)用戶的不信任和抵觸,從而降低了交互效率。

圖片來源于微軟 HAX Toolkit 中的 G5、G6 (文本經(jīng)谷歌網(wǎng)頁翻譯)

無論是個體環(huán)境,還是群體共識,HAX 設(shè)計原則從理解到響應(yīng)的機制,與情感作為思維的方式不謀而合。但這并不意味著 AI 需要模擬情感本身,而是作為智能工具模擬“情感思維”機制,以解決特定場景中的效率問題。

以信任構(gòu)建互動關(guān)系

無論是提醒人類以“慢想”思維介入交互過程,還是模擬情感思維,幫助人類解決場景問題。HAX 原則都在以“以人為本”的視角,去解決人類與機器各自存在的局限性,這也是構(gòu)建信任關(guān)系的基石。

有篇論文這樣定義信任:“信任是主體對客體執(zhí)行“特定行為”的結(jié)果期望,且愿意承受其行動帶來的風(fēng)險的心理狀態(tài)?!?/p>

——Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods

那么,為了提高人與 AI 的交互效率,獲取用戶最大的信任是正確的嗎?

顯然不是。

過度的信任可能導(dǎo)致 AI 被濫用,而信任不足又會使人放棄使用。對于這樣一個智能伙伴來說,若我們想要更高的效率,或許需要依靠一個信任校準工具,將 AI 的真實能力水平與用戶的信任程度動態(tài)匹配。

HAX 的 18 條原則之間其實是相互關(guān)聯(lián)的整體。從交互前讓 AI 校準用戶期望,到交互過程中以人的思維給予反饋,最后,賦予用戶最終的掌控權(quán)以鞏固信任。因此,“HAX Toolkit”本質(zhì)上也是一個信任校準的工具箱,以引導(dǎo)用戶建立人與 AI 可持續(xù)的健康關(guān)系。

02 殊途同歸的 AI 設(shè)計哲學(xué)

微軟的 HAX 并非獨一無二,在推導(dǎo)其背后的設(shè)計思考后,我們將其放置到 AI 行業(yè)中,對比不同公司的設(shè)計哲學(xué)。我們選擇了微軟、Google、Apple、IBM 這四個行業(yè)差異大、商業(yè)模式不同且企業(yè)文化不同的公司,看看他們對于 AI 秉持的態(tài)度。

微軟

微軟是基于六個負責(zé)任的 AI 價值觀(公平、可靠與安全、隱私與安全、包容、透明、問責(zé)),核心以信任為基石,構(gòu)建人機“伙伴關(guān)系”。而 HAX 原則是在體驗和互動層面,將這些價值觀落地到具體交互界面的實踐指南 。

圖片來源于微軟 HAX Toolkit

谷歌

谷歌的“人與 AI 研究”(PAIR)項目和指南,強調(diào) AI 的有用性和對用戶的輔助。其設(shè)計原則聚焦于用戶自主權(quán)、數(shù)據(jù)與模型的現(xiàn)實對齊、以及通過反饋不斷適應(yīng) 。

谷歌 PAIR 網(wǎng)站上的設(shè)計原則。

蘋果

蘋果在其《人機界面指南》(HIG)中,將用戶控制、隱私保護和負責(zé)任的設(shè)計置于最高優(yōu)先級。其核心理念是確保人類“始終掌控決策權(quán)” 。此外,蘋果也提供非 AI 的備用方案來保證包容性,他們在未解決用戶隱私與數(shù)據(jù)處理問題之前,始終推崇端側(cè)模型。

蘋果 HIG 中關(guān)于生成式 AI 的介紹。

IBM

IBM,則是以企業(yè)為中心的視角,將 AI 的功能定義為“增強人類智能”,也強調(diào)信任支撐(可解釋性、公平性、穩(wěn)健性、透明度、隱私),構(gòu)建可信賴的企業(yè)級系統(tǒng)。

IBM 關(guān)于 AI 的設(shè)計原則描述。

或許也都是因為人的生理和思維模式特征與 AI 的技術(shù)局限性,不同公司都有針對 AI 研究出匹配的設(shè)計原則,且似乎都期望建立一個“可控”和“有效”的 AI。微軟 HAX 中關(guān)于靈活調(diào)用、高效控制的一系列指南(G7, G8, G17)并非一家之言,與蘋果的“讓人們保持控制主權(quán)” 、谷歌的“為適當?shù)挠脩糇灾鳈?quán)而設(shè)計” 也都出自“可控”的設(shè)計哲學(xué)。

盡管他們在側(cè)重點和設(shè)計實踐中皆不相同,但都是希望解決同一個問題——如何賦予用戶隨時讓“慢想”思維模式介入交互的最終控制權(quán)。

03 可實踐的 HAX 原則概覽

基于前兩部分的理論基礎(chǔ)和行業(yè)洞察,我們在較為宏大的技術(shù)發(fā)展背景下,來推測微軟 HAX 原則產(chǎn)生的原因。這些原則并非假大空,而是在人、機、環(huán)境三者的復(fù)雜交互中,洞察了具體問題,并提供了可實踐的操作指南。微軟將它們分為初始、互動、犯錯、演化四個時間階段。

初始階段——互動基礎(chǔ)

微軟是基于六個負責(zé)任的 AI 價值觀(公平、可靠與安全、隱私與安全、包容、透明、問責(zé)),核心以信任為基石,構(gòu)建人機“伙伴關(guān)系”。而 HAX 原則是在體驗和互動層面,將這些價值觀落地到具體交互界面的實踐指南。

GPT 在對話頁面輸入框的底部常駐的提示。

【G2:明確系統(tǒng)能力的可靠性?!縿t直接回應(yīng)了 AI 的概率性本質(zhì)。如 GPT 會坦誠地在對話頁面說明“GPT 可能會犯錯”,引導(dǎo)用戶采取批判的態(tài)度使用產(chǎn)品,而非盲目接受。這兩條原則是卡尼曼針對“認知陷阱”粗暴、但有效的解法。它們通常作為校準信任和激活“慢想”系統(tǒng)的第一步,也是在人與 AI 交互前,塑造用戶認知的關(guān)鍵一步。這與蘋果“在使用功能前設(shè)置用戶期望” 和谷歌“心智模型+期望” 的理念不謀而合。

交互中——情景感知

根據(jù)馬文·明斯基的理論來看,這部分總體而言,是通過模擬“情感思維”機制,來減輕 AI 與個體、群體在交互中的認知負擔,并提升信息獲取效率。

【G3:基于上下文的時間服務(wù)(根據(jù)用戶當前的任務(wù)和環(huán)境來確定何時采取行動或中斷)】、【G4:展示上下文信息】強調(diào) ,AI 通過理解用戶的上下文和環(huán)境信息,自動調(diào)整響應(yīng),避免用戶需要輸入額外的情景信息,從而讓交互更加自然、高效。

【G5:匹配相關(guān)的社會規(guī)范】、【G6:減少社會偏見】的核心,要求 AI 遵循社會規(guī)范、避免偏見,從而確保與用戶的互動符合倫理和社交共識,減少不信任和抵觸,提升交互的順暢性。同樣的,確保 AI 的反饋是符合倫理道德和包容的,也是各大巨頭的共識。

犯錯時——掌控與修正

這組原則涵蓋了用戶控制和錯誤處理的實時互動環(huán)節(jié)。能夠輕松地喚醒【G7:支持高效地調(diào)用】、忽略【G8:支持高效地忽略 】或糾正【G9:支持高效地糾錯】AI 的建議,以此增加用戶對主體掌控感的心理暗示。

這種自主性是將系統(tǒng)的決策權(quán)交還給用戶的“慢想”系統(tǒng)。讓用戶從被動的建議接收者,轉(zhuǎn)變?yōu)橐粋€主動的指揮者。對用戶掌控感的執(zhí)著,在蘋果的 HIG 中體現(xiàn)得尤為突出 。

至于【G11:明確解釋系統(tǒng)的行為】,也經(jīng)過 CHI、Nature 等期刊論文的反復(fù)論證——AI 的可解釋性是非常必要的。一個易懂的解釋可以讓技術(shù)透明化,也能讓用戶在了解技術(shù)原理后做出判斷,從而激活人類的“慢想”思維模式。

長期互動關(guān)系的進化——記憶與適應(yīng)

除了像 Mebot 這類一開始就以用戶記憶為核心打造的 AI 產(chǎn)品之外,如 Gemini、GPT 近期也新增了基于用戶搜索和對話的記錄來生成個性化結(jié)果的功能。

個性化的功能本身,本質(zhì)是提高工具效率的方式。

當 AI 的交互結(jié)果依賴于用戶的記憶或個性化數(shù)據(jù)時,用戶與 AI 之間的長期動態(tài)演進關(guān)系,就成為了一個必須考慮的體驗難題。

人腦與機器在記憶機制上有顯著差異,特別是在遺忘方面。人腦的記憶具有選擇性和情景化,而機器的記憶則是完整的、文字化的、數(shù)據(jù)結(jié)構(gòu)化的。

盡管如此,人類的記憶并非缺陷,反而是一種功能,可以幫助人類歸納、概括并排除無關(guān)細節(jié)

AI 在記憶機制上,則有正反兩面。

一方面,AI 的精準記憶【G12:記住近期的互動】 、【 G13:從用戶行為中學(xué)習(xí)】確實可通過生成個性化結(jié)果的方式,以提高用戶完成任務(wù)的效率。但另一方面,AI 往往會基于某次用戶的偶然行為,生成“過度擬合”的結(jié)果。例如,我偶爾吃一次素食餐廳,就被漫天的素食、減肥推薦的廣告籠罩。

這種記得太牢,但對情景理解不夠的場景,你是否也似曾相識?

同時,這種突兀的推薦,也會導(dǎo)致用戶產(chǎn)生嚴重的隱私擔憂,蘋果和 IBM 的 AI 設(shè)計原則中也都有對應(yīng)的解法 。

HAX 原則為解決這個問題,強調(diào) G13 必須與 G14、G17 整合成一個動態(tài)可控的進化體系。

【G14:謹慎地更新和適應(yīng)】可以防止 AI 的行為變得難以預(yù)測,從而破壞用戶原有的信任和認知。

而【G17:提供全局控制】則賦予了用戶“讓 AI 遺忘”的權(quán)力,不僅解決了用戶的隱私擔憂,也確保了人類在互動關(guān)系中的主導(dǎo)地位。

微軟 HAX 原則的核心是打造 “能力清晰、可控且能進化” 的智能伙伴。設(shè)計思路源于對人類局限和優(yōu)勢的理解,目標是讓 AI 技術(shù)在與人合作中不斷校準信任,優(yōu)化效率,最終形成符合人類認知特性的交互模式

04 成為成熟的 AI

從史前智人高舉的骨棒,到 HAL9000 的紅色魅眼。我們與“工具”的關(guān)系正經(jīng)歷著一場認知和范式的變革?;氐介_頭的那個問題:成熟的 AI 會是軟件嗎?或許,這個問題的價值不在于“成熟的 AI 是否會被定義成軟件”,而在于“如何讓 AI 變成熟”。微軟的 HAX 與各家巨頭的 AI 設(shè)計原則給出了殊途同歸的解法,他們并非要束縛 AI 的發(fā)展,而是在人與機器的認知能力局限中,找到校準信任的度量尺,從而讓老百姓放心與之共處。

參考文獻

  • HAX Team(2019). Hands-on tools for building effective human-AI experiences. Microsoft. https://www.microsoft.com/en-us/haxtoolkit/
  • HAX Team(2019). HAX Design Library. Microsoft. https://www.microsoft.com/en-us/haxtoolkit/library/
  • Takane Ueno, Yuto Sawa, Yeongdae Kim, Jacqueline Urakami, Hiroki Oura, Katie Seaborn(2022). Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods.
  • Kahneman, D. (2011). Thinking, Fast and Slow. Doubleday Canada.
  • Kahneman, D. (2011, October 19). The two systems of thinking. Scientific American. Retrieved from https://www.scientificamerican.com/article/kahneman-excerpt-thinking-fast-and-slow/
  • Marvin, Minsky. (2006). The Emotion Machine Simon & Schuster. ISBN 0-7432-7663-9.
  • Li, Y. et al. (2024) ‘Developing trustworthy artificial intelligence: Insights from research on interpersonal, human-automation, and human-ai trust’, Frontiers in Psychology, 15. doi:10.3389/fpsyg.2024.1382693.
  • Responsible AI transparency report: Microsoft (2025) Corporate Responsibility. Available at: https://www.microsoft.com/en-us/corporate-responsibility/responsible-ai-transparency-report/
  • Ai ethics (2025). IBM. Available at: https://www.ibm.com/artificial-intelligence/ai-ethics/
  • Generative AI (2025). Apple Developer Documentation. Available at: https://developer.apple.com/design/human-interface-guidelines/generative-ai/
  • People + ai guidebook (no date) Google. Available at: https://pair.withgoogle.com/guidebook/

圖源來自網(wǎng)絡(luò)公開資料,若涉及版權(quán)請聯(lián)系修改。

本文由 @HAI Design 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!