AI 驅(qū)動(dòng) UX 設(shè)計(jì) 2.0,2025 年我的研究實(shí)踐

0 評論 938 瀏覽 3 收藏 24 分鐘

這篇文章結(jié)合作者在倫敦大學(xué) HCID 會(huì)議的演講內(nèi)容,拆解 AI 驅(qū)動(dòng) UX 設(shè)計(jì) 2.0 的核心玩法:從 “輸入 - 指令 - 收獲” 的實(shí)操三步法,到 “設(shè)定場景、思維鏈、百搭卡” 等高效提示詞技巧,更強(qiáng)調(diào) AI 輸出需人工核查的關(guān)鍵原則。

簡而言之:今年 AI 主導(dǎo)了用戶體驗(yàn)(UX)領(lǐng)域。在本文中,我會(huì)解釋原因,并介紹我將 AI 用于用戶體驗(yàn)研究的最新方法,重點(diǎn)講講 ChatGPT 的深度研究功能如何大幅加快定性研究分析。

更新 —— 2025 年 8 月 10 日:OpenAI 推出了最新的旗艦?zāi)P?ChatGPT 5,并停用了包括 4-o、o3 等在內(nèi)的多個(gè)舊模型。不過,深度研究功能仍可在提示欄左側(cè)的工具列表中找到 —— 點(diǎn)擊圖片圖標(biāo)可查看完整列表。

2025 年 8 月 ChatGPT 5 中深度研究功能的位置

(注:我將使用 “AI”“genAI” 和 “模型” 作為 “生成式 AI” 的簡寫,主要指大語言模型(LLMs),這是生成式 AI 中專門用于生成文本的特定類型。)

十個(gè)月前,我在 Medium 上發(fā)表了關(guān)于 AI 在用戶體驗(yàn)領(lǐng)域應(yīng)用的文章,沒想到成了 “爆款”,閱讀量達(dá)數(shù)千次,遠(yuǎn)超博客上的其他文章。但在生成式 AI 領(lǐng)域,十個(gè)月就像過了很久,變化太快,那篇文章有些內(nèi)容已經(jīng)過時(shí)了。

后來,我的母校 —— 倫敦大學(xué)城市學(xué)院圣喬治分校的人機(jī)交互設(shè)計(jì)系聯(lián)系我,邀請我在他們的年會(huì)上發(fā)言,我欣然接受了這個(gè)機(jī)會(huì),想重新探討這個(gè)話題,尤其是得知老教授說他們聯(lián)系我部分原因是那篇文章很受歡迎之后。

以下是我對 AI 在用戶體驗(yàn)領(lǐng)域應(yīng)用的新見解,這是為 2025 年更新的內(nèi)容,也包含了我在 2025 年人機(jī)交互設(shè)計(jì)中心(HCID)會(huì)議上的發(fā)言內(nèi)容(我覺得講得還挺不錯(cuò)的)。

終于成真——2025年,AI徹底接管了 UX

AI 會(huì)取代你的工作嗎?這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

2024 年初,我剛開始在工作中使用 AI 時(shí),感覺自己就像一個(gè)勇敢的探險(xiǎn)家,闖入了一片陌生的領(lǐng)域。誠然,AI 已經(jīng)存在有一段時(shí)間了,我們大多數(shù)人都曾在家里用它來生成一些家常菜食譜或粗制濫造的視覺內(nèi)容。但我們中很少有人有機(jī)會(huì)讓 AI 真正重塑自己的工作,這主要是因?yàn)榇嬖?“AI 會(huì)吞噬任何輸入數(shù)據(jù)” 的數(shù)據(jù)隱私問題,以及由此導(dǎo)致的對在工作中使用 AI 的嚴(yán)格禁令。

數(shù)據(jù)隱私問題。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

但 2024 年是私有 AI 的開端。最終,像 OpenAI 和 Anthropic 這樣的供應(yīng)商對其大語言模型(LLMs)進(jìn)行了 “隔離”,以確保數(shù)據(jù)無泄露風(fēng)險(xiǎn),這也為像我們這樣的機(jī)構(gòu)開啟了以訂閱方式使用私有 AI 的大門。

時(shí)間來到 2025 年,尼爾森諾曼集團(tuán)的一項(xiàng)研究表明,用戶體驗(yàn)(UX)專業(yè)人員是使用 AI 最為頻繁的群體之一。該研究揭示的一個(gè)關(guān)鍵數(shù)據(jù)顯示,如今普通的 UX 從業(yè)者使用大語言模型的頻率,比其他抽樣職業(yè)高出驚人的 750 倍!

為什么 UX 從業(yè)者如此喜愛 AI?

你有一把錘子,但并非看到的所有東西都是釘子。從在學(xué)習(xí)作業(yè)中作弊(說真的,正在讀這篇文章的人機(jī)交互設(shè)計(jì) / 用戶體驗(yàn)專業(yè)的學(xué)生們,要是你們嘗試過讓 AI 生成用戶訪談?dòng)涗洠s緊收手吧),到有個(gè)倒霉的樂迷惹惱尼克?凱夫(Nick Cave)—— 給他發(fā)了一首 ChatGPT 生成的 “尼克?凱夫風(fēng)格” 的歌,有很多情況都表明使用 AI 并非明智之舉。

正如尼克?凱夫(Nick Cave)所說,生成式 AI(GenAI)并非在所有方面都出色。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

媒體熱衷于渲染此類故事,久而久之,這就在時(shí)代精神中營造出一種普遍 “感覺”,仿佛無論在什么應(yīng)用場景下,AI 都一無是處或有害無益。

但我不這么認(rèn)為。

用戶體驗(yàn)(UX)與生成式 AI 很契合。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

因?yàn)槲覀兡苡眠@把錘子釘一些釘子。生成式 AI 的局限性與能力,和特定類型用戶體驗(yàn)研究的局限與需求很匹配。具體來說:

  1. 生成式 AI 擅長總結(jié)文本數(shù)據(jù),而用戶體驗(yàn)研究恰恰會(huì)產(chǎn)生大量文本數(shù)據(jù)。
  2. 生成式 AI 必然會(huì)出現(xiàn) “幻覺”(生成虛假信息)現(xiàn)象,而傳統(tǒng)用戶體驗(yàn)研究通常能應(yīng)對一定程度的 “模糊性”。(但如果你的工作涉及高度精確的領(lǐng)域,禁止使用 AI 是明智的。)
  3. 生成式 AI 本質(zhì)上只能生成衍生性的輸出,而用戶體驗(yàn)從業(yè)者很少創(chuàng)造出完全原創(chuàng)的成果。相反,我們的優(yōu)勢在于對現(xiàn)有內(nèi)容進(jìn)行調(diào)整。

各位,這就是用戶體驗(yàn)從業(yè)者喜愛 AI 的原因。它與我們的工作很匹配,對我們來說是真正有用的工具。除了(如今基本已解決的)數(shù)據(jù)隱私限制外,行業(yè)內(nèi)對于使用 AI 并無爭議。只要研究報(bào)告寫得好,提供了所需數(shù)據(jù),沒人會(huì)在意它是否由 AI 生成。

不過,關(guān)于 AI 的倫理問題絕對應(yīng)該有更多爭議。就我而言,我很困惑用戶體驗(yàn)行業(yè)對此討論得如此之少,我會(huì)繼續(xù)強(qiáng)調(diào) AI 技術(shù)過去和現(xiàn)在存在的倫理缺陷,以引發(fā)更多關(guān)注。

關(guān)鍵內(nèi)容

ChatGPT 企業(yè)版深度研究功能的截圖

言歸正傳,說說具體做法。

我給大家舉個(gè)用戶體驗(yàn)研究的真實(shí)例子,在最近一個(gè)項(xiàng)目里,我用 AI 分析了用戶數(shù)據(jù)。所有識別性信息都已匿名處理。

我用的是 ChatGPT 企業(yè)版,也就是經(jīng)過 “隔離” 的私有版本,具備最新的深度研究功能。這是 OpenAI 在 2025 年 2 月推出的一款專門的 AI “智能體”,號稱 “非常適合從事高強(qiáng)度知識工作的人”。

深度研究功能與傳統(tǒng)模型的對比。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

要是你沒辦法使用企業(yè)版,花 20 美元訂閱 ChatGPT Plus 也能用上深度研究功能(不過據(jù)我所知,這樣你的數(shù)據(jù)不會(huì)經(jīng)過 “隔離” 處理)。

我 2025 年的方法和之前一樣,都從這三個(gè)步驟開始:

該方法。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

  1. 輸入:提供素材。如今你能提供給它的 “素材” 種類大大增加了:龐大的數(shù)據(jù)集、JSON 文件、截圖、網(wǎng)頁鏈接、PDF 文件等等。ChatGPT 企業(yè)版在讀取 PNG 格式文件方面特別出色,能輕松識別截圖中的文字。
  2. 指令:告訴它要做什么。這依然遵循我在原文章中提到的提示詞框架規(guī)則。
  3. 獲取:從它那里得到所需信息,并按需使用,比如為你所在機(jī)構(gòu)的高層領(lǐng)導(dǎo)撰寫報(bào)告。

步驟 1:輸入

深度研究功能的優(yōu)勢在于,它能夠處理大量數(shù)據(jù),且比大多數(shù)傳統(tǒng)模型(如 4o、Claude 3.7 Sonnet 等)具有更高的準(zhǔn)確性。據(jù)我發(fā)現(xiàn),你不僅可以向它輸入諸如訪談?dòng)涗?、原型截圖之類的文檔,還能指定讓它以某一份特定文檔為依據(jù),使該文檔主導(dǎo)模型的思考與分析方向。

在我的案例研究中,這份文檔就是討論指南 / 研究計(jì)劃。

討論指南 / 研究計(jì)劃的重要性。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

討論指南通常由用戶體驗(yàn)從業(yè)者與產(chǎn)品經(jīng)理共同制定,一般包含以下內(nèi)容:

  1. 研究背景:這是個(gè)怎樣的研究項(xiàng)目?針對什么產(chǎn)品開展?為什么要做這項(xiàng)研究?
  2. 研究目標(biāo)與假設(shè):通過這項(xiàng)研究,你試圖證明或證偽什么?
  3. 訪談參與者 / 用戶信息:他們是誰?招募標(biāo)準(zhǔn)是什么?如果(像我的案例中那樣)他們是某個(gè)特定細(xì)分領(lǐng)域的專業(yè)人士,那具體是什么領(lǐng)域?
  4. 訪談結(jié)構(gòu),包括訪談主題與所提問題類型,所有這些都與研究目標(biāo)和假設(shè)相關(guān)聯(lián)。

步驟 2:指令

好了,你已經(jīng)把訪談?dòng)涗洝⒔貓D和討論指南輸入給模型了。那要怎么告訴模型該怎么處理這些內(nèi)容呢?

無需冗長對話

深度研究功能與傳統(tǒng)模型的一個(gè)關(guān)鍵區(qū)別在于,深度研究功能無需大量來回溝通。相反,你一次性說明要求,在回答幾個(gè)澄清問題后,模型就會(huì)開始 “執(zhí)行任務(wù)”,根據(jù)你的指令生成一份詳盡的報(bào)告。你只有一次輸入提示詞的機(jī)會(huì),所以必須確保提示詞能切中要點(diǎn)。

我完整的提示詞。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

我使用提示詞的方法與 2024 年文章中的基本一致,即借助實(shí)用的提示詞框架來構(gòu)建提示詞。這里我就不再贅述每種提示詞技巧了,大家可參考那篇文章獲取詳細(xì)內(nèi)容。

提示詞框架。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

不過,某些提示詞 “卡片” 的重要程度相比其他有所變化。目前以下這些 “卡片” 最為有用:

提示詞卡片:設(shè)定場景

“設(shè)定場景” 提示詞卡片。(圖片來源:Tania Ostanina)

解釋研究目的、針對的公司與產(chǎn)品、用戶是誰,以及模型將會(huì)接收哪些文檔;如果有關(guān)鍵文檔(在此例中即討論指南),要以其為依據(jù)進(jìn)行設(shè)定。

提示詞卡片:用戶角色

“用戶角色” 提示詞卡片。(圖片來源:Tania Ostanina)

描述你希望模型扮演的角色,例如 “就職于一家科技公司(X 公司)的全球頂尖用戶體驗(yàn)研究員,該公司為英國的 [某職業(yè)] 提供數(shù)字信息與分析產(chǎn)品”。

提示詞卡片應(yīng)用示例。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

提示詞卡片:模板

“模板” 提示詞卡片。(圖片來源:Tania Ostanina)

告訴 AI 如何組織輸出內(nèi)容,這仍是一項(xiàng)關(guān)鍵技巧。你可以讓它依照討論指南的結(jié)構(gòu)(如果適用的話),或者給它一個(gè)包含所有標(biāo)題的示例模板。

提示詞卡片應(yīng)用示例。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

提示詞卡片:思維鏈

“思維鏈” 提示詞卡片。(圖片來源:Tania Ostanina)

如今,這項(xiàng)極為有用的技巧被 AI 提示詞工程師廣泛運(yùn)用。簡單來說,如果你讓 AI 解釋得出某個(gè)特定結(jié)論的原因,其結(jié)論的準(zhǔn)確性就會(huì)提高。

提示詞卡片:百搭卡(新增)

“百搭卡” 提示詞卡片。(圖片來源:Tania Ostanina)

這是一位同事想出來的。在我們公司的許多用戶研究中,包括這個(gè)例子,我們對想從用戶那里了解的內(nèi)容已有預(yù)設(shè)結(jié)構(gòu)。但要是用戶說了些我們沒預(yù)料到的東西呢?如果你不要求模型去發(fā)現(xiàn)這些意外情況,它就不會(huì)去做。你自己本就該留意這些異常,但為何不讓模型也思考一下呢?

提示詞卡片應(yīng)用示例。這是我在 2025 年人機(jī)交互設(shè)計(jì)中心會(huì)議演講中的一張幻燈片。(圖片來源:Tania Ostanina)

這讓我想起 OpenAI 那個(gè)特別搞笑又有點(diǎn)詭異的視頻:兩個(gè)兼具視覺與語音功能的 AI 助手,與一位人類主持人對話時(shí),有個(gè)人在主持人身后比出兔耳朵的手勢。這倆 AI 助手完全無視這個(gè)兔耳朵手勢,直到被明確提醒才注意到。

步驟 3:收獲成果

輸入提示詞和相關(guān)文檔后,選擇 “深度研究” 并點(diǎn)擊 “提交” 按鈕,然后不妨給自己倒杯咖啡。AI 生成所需報(bào)告的時(shí)間,取決于 “任務(wù)” 的復(fù)雜程度,最長可能需要一小時(shí)。在我的案例研究中,這一步大約耗時(shí) 30 分鐘。

在等待 “深度研究” 生成報(bào)告時(shí),不妨去喝杯咖啡。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)

不錯(cuò),報(bào)告生成了,長達(dá) 50 頁!但這也是整個(gè)流程里最無趣的部分:

逐字逐句仔細(xì)檢查!

雖說 “深度研究” 的準(zhǔn)確率比大多數(shù)模型都高,但離 100% 還差得遠(yuǎn),而且它生成的錯(cuò)誤內(nèi)容看起來可能極具說服力。所以,千萬別輕信。直至今日,AI 依舊像個(gè)熱情但經(jīng)驗(yàn)不足的助手,其成果必須經(jīng)過核查。只有你,作為整個(gè)流程中的專業(yè)人員,才具備專業(yè)知識和解讀能力,能夠真正理解用戶訪談中發(fā)生的情況,否決 AI 的錯(cuò)誤結(jié)論,并且發(fā)現(xiàn)即便你用了 “百搭卡” 提示,AI 仍可能遺漏的任何 “兔耳朵”(意外情況)。

“深度研究” 有個(gè)貼心的功能,就是在右側(cè)面板你能看到它得出結(jié)論所采取的步驟。這里可能出現(xiàn)最離奇的錯(cuò)誤內(nèi)容,看著還挺逗。我注意到,由于 “深度研究” 功能本身已內(nèi)置 “思維鏈” 流程,這類錯(cuò)誤內(nèi)容很少會(huì)出現(xiàn)在最終報(bào)告里。

離奇的錯(cuò)誤內(nèi)容:“塔斯馬尼亞的三文魚養(yǎng)殖”。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)

重要提示:由于 “深度研究” 一次僅允許執(zhí)行一項(xiàng)任務(wù),而非來回對話模式,所以你無法在與 AI 交流時(shí)進(jìn)行修正。得用傳統(tǒng)方法,將報(bào)告下載到 Word 文檔里修改。

完成修正后,你可以把 Word 報(bào)告重新上傳到 ChatGPT,讓它將這 50 頁內(nèi)容濃縮成簡潔的、類似 PPT 風(fēng)格的展示文稿。這是最容易的一步:只需對常規(guī) AI 模型(如 4o、o3 等)運(yùn)用 “模板” 提示技巧就行。

關(guān)于用戶原話引用的說明

以我的經(jīng)驗(yàn),常規(guī) AI 模型從訪談?dòng)涗浿刑崛∮脩粼挼哪芰懿?,它們往往選擇意譯。相信我,我什么方法都試過了!相比之下,“深度研究” 的引用會(huì)直接標(biāo)注原始材料來源,所以用戶原話更容易交叉核對。不過我還是建議手動(dòng)檢查,尤其是你打算在最終報(bào)告里使用的那些原話。

用戶體驗(yàn)中的 “深度研究”:要點(diǎn)速覽

關(guān)鍵在于誰掌控著主導(dǎo)權(quán)。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)

所以,“深度研究” 花了約 30 分鐘完成分析。即便算上人工撰寫提示詞、準(zhǔn)備文檔、檢查和修正的時(shí)間,這也比手動(dòng)完成整個(gè)分析要快,肯定也比我之前依賴常規(guī) AI 模型的方法快。

需要提醒一句:可能會(huì)有人想把分析工作完全交給 “深度研究”,跳過檢查這一步,這可就大錯(cuò)特錯(cuò)了。說到底,如果 “深度研究” 出了錯(cuò),擔(dān)責(zé)任的是你,而不是 AI。即便模型越來越先進(jìn),時(shí)刻保持警惕、在它們出錯(cuò)時(shí)加以干預(yù),依舊至關(guān)重要。

忘掉我跟你說的一切

忘掉我跟你說的所有內(nèi)容。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)

在我于 HCID 會(huì)議的演講里,這是我最喜歡的一張幻燈片。先是給聽眾講一堆有用且可操作的信息,接著又讓他們把這些都拋諸腦后,這有種特別的快意。

但這就是 AI 領(lǐng)域的現(xiàn)實(shí)。情況每周都在變,跟上節(jié)奏的唯一辦法就是與之共同發(fā)展。比如說,我那次演講還沒提到智能體 AI(agentic AI),但寫這篇內(nèi)容的時(shí)候,它已然是 2025 年最重大(同時(shí)也是最模糊不清?。┑?AI 事件。很有可能,要是我寫《用戶體驗(yàn)中的 AI 3.0》,就會(huì)談到智能體 AI。

不過也說不定!誰知道呢!

 

原文標(biāo)題:How I use generative AI for research in 2025

原文鏈接:https://uxdesign.cc/an-ai-for-ux-v2-0-how-i-used-ai-for-research-in-2025-d4a0d652714b

作者:Tania Ostanina 審核:李澤慧 編輯:魏文強(qiáng)

本文由人人都是產(chǎn)品經(jīng)理作者【TCC翻譯情報(bào)局】,微信公眾號:【TCC翻譯情報(bào)局】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!