為何B端AI落地,卡在“打工人不想背鍋”?

0 評論 1498 瀏覽 0 收藏 9 分鐘

王富貴盯著屏幕上AI生成的報告,手指在“確認提交”鍵上徘徊了十分鐘。他知道這個按鍵背后不僅是工作成果,更是自己未來職業(yè)生涯的押注——一旦出錯,責任全在自己身上。

01 承諾與困境

最近三年,超過80%的大型企業(yè)已將AI技術納入戰(zhàn)略規(guī)劃。投資規(guī)模從2021年的570億美元增長至2023年的1540億美元,年均增長率高達驚人的64.5%。

幾乎所有企業(yè)都在AI戰(zhàn)略中承諾“提升員工效率”、“減少重復勞動”。

然而現實是另一番景象。在一家采用了AI輔助決策系統(tǒng)的金融公司,員工平均每天要多花2小時審核AI的輸出。原本應該節(jié)省時間的技術,反而增加了工作負擔。

一位資深分析師坦言:“以前我只需要對自己的分析負責,現在我要對AI的分析負責,還要對我是否審透了AI負責。”

02 “人肉護欄”的誕生

AI進入職場后,員工角色發(fā)生了微妙而根本的變化。他們從執(zhí)行者轉變?yōu)椤叭巳庾o欄”——這是組織為了防范AI錯誤而設立的最終防線。

公司引入AI工具,本質上是在建立一個風險轉移鏈條:公司把業(yè)務風險轉移給AI系統(tǒng),AI系統(tǒng)的不確定性風險又轉移給使用它的員工。在這條鏈的末端,員工成為了風險的最終承載者。

一位產品經理描述了他的日常:“我現在每天的工作,三分之二在給AI‘改作業(yè)’,檢查它寫的需求文檔有沒有邏輯漏洞,看看它做的競品分析有沒有事實錯誤?!?/p>

當被問及為何不直接自己寫時,他苦笑道:“公司要求必須用AI生成初稿,說是要‘適應未來工作模式’?!?/p>

03 責任與收益的失衡

這種風險轉移最根本的問題在于責任與收益的嚴重不匹配。AI帶來的效率提升,收益主要由公司獲得;而AI可能引發(fā)的錯誤,風險主要由員工承擔。

這種失衡直接反映在企業(yè)的制度設計中。多數公司會因AI導致的錯誤懲罰員工,卻很少因員工正確使用AI而給予獎勵。

一個典型的場景是:市場部門使用AI生成營銷文案,一旦文案出現任何問題,責任人是批準文案的市場專員,而不是AI系統(tǒng)或采購AI系統(tǒng)的決策者。

在這種情況下,理性員工的最優(yōu)策略是規(guī)避風險——要么不使用AI,要么投入過度精力審查AI的每一個輸出,導致所謂的“效率提升”在現實中化為泡影。

04 信任機制缺失

更深層次的問題在于組織內部的信任機制缺失。當AI系統(tǒng)像一個“黑箱”時,員工無法理解其決策邏輯,自然不敢輕易信任其輸出。

研究表明,當人們對一個系統(tǒng)的工作原理缺乏基本了解時,即使系統(tǒng)表現優(yōu)異,他們也會保持懷疑態(tài)度

這導致了一個悖論:公司希望通過AI提高效率,但因為員工不信任AI,不得不增加人工審查環(huán)節(jié),最終反而降低了效率。

在醫(yī)療領域尤其明顯。一位放射科醫(yī)生表示:“AI可以在幾秒內標記出CT掃描中的潛在異常,但我仍然要花20分鐘仔細查看整個影像,因為如果漏診,承擔法律責任的是我,不是AI?!?/p>

05 破解困局的三把鑰匙

要打破這一僵局,需要從三個層面重構組織內的人機協(xié)作模式。明確的責任劃分是信任建立的基礎。

第一把鑰匙:重構責任邊界。

公司必須明確劃分AI與人的責任范圍,例如AI負責初步篩選與模式識別,人類負責最終判斷與決策。這種劃分需要在制度與合同中明確規(guī)定。

第二把鑰匙:透明化AI能力與局限

每個AI工具都應附帶“說明書”,明確告知員工它的準確率邊界、已知缺陷和最佳使用場景。這能讓員工知道何時可以信任AI,何時必須提高警惕。

第三把鑰匙:重塑激勵與容錯機制。

企業(yè)需要建立與AI使用相適應的激勵機制,鼓勵安全高效地使用AI。同時,應該為探索性使用AI設置一定的容錯空間,將員工的注意力從“規(guī)避懲罰”轉向“學習優(yōu)化”。

06 從“監(jiān)督者”到“架構師”

當組織完成了上述轉變,員工的角色也將隨之進化。員工不再是簡單的AI監(jiān)督者,而是人機協(xié)作系統(tǒng)的架構師

在這一新的角色中,員工的核心職責包括:設計AI與人類的最佳協(xié)作流程,設置合理的檢查點與風險評估機制,以及在關鍵節(jié)點做出基于人類經驗與價值觀的判斷。

這種轉變將責任從“被動背鍋”轉變?yōu)椤爸鲃釉O計安全系統(tǒng)”,從根本上改變了員工與AI的關系。

一位已經完成這種轉變的技術團隊負責人分享道:“我不再讓團隊逐行檢查AI生成的代碼,而是教他們如何設計測試用例來驗證AI輸出的可靠性。我們從代碼審查員變成了質量系統(tǒng)設計師。”

07 新平衡與共存

未來成功的B端AI落地,不會是人被機器替代的簡單敘事,而是人與機器在明確規(guī)則下形成的新平衡與共生關系。

在這種關系中,公司通過清晰的制度設計,確保風險合理分配;員工作為具有判斷力和責任感的主體,在理解AI能力邊界的基礎上發(fā)揮監(jiān)督與決策作用;AI則在其擅長的領域提供規(guī)?;?、高效率的服務。

這需要企業(yè)在引入AI技術的同時,同步進行組織流程、責任制度和激勵機制的調整。技術可以快速部署,但信任需要緩慢建立。

當企業(yè)不再將員工作為AI系統(tǒng)的“人肉護欄”,而是將其視為駕馭AI的“專業(yè)騎手”時,真正的生產力革命才會發(fā)生。員工不再是風險的終端承受者,而是價值的共同創(chuàng)造者。

在深圳一家科技公司的走廊上,掛著這樣一句標語:“我們不給AI設限,但為人設好邊界。”這家公司每個AI工具旁,都附有明確的責任說明和使用指南,詳細列出了“AI能做什么”、“可能出什么錯”以及“人的最終責任在哪里”。

上線第一年,這套系統(tǒng)的使用率就達到92%,遠高于行業(yè)平均的37%。一位員工在內部論壇寫道:“我終于知道什么時候該相信它,什么時候該懷疑它,這讓我感覺安全?!?/p>

當AI的歸AI,責任的歸責任,人的價值便自然回歸于判斷、創(chuàng)造和連接——這些機器難以真正擁有的稟賦。

本文由 @Alex的荒誕產品觀 原創(chuàng)發(fā)布于人人都是產品經理。未經作者許可,禁止轉載

題圖來自Unsplash,基于CC0協(xié)議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!