
文|胡香贇
編輯|海若鏡
封面來源|Unsplash
當越來越多的人選擇讓AI成為自己的臨時「心理依靠」,人與AI之間的關係會發生怎樣的改變?
10月底,Open AI公佈了一組在升級模型處理心理健康問題能力時統計到的數據。這組數據顯示,Chat GPT上的8億活躍用戶中,有超百萬人正在傾訴自殺傾向,或對其存在較高程度的情感依戀。
人類允許AI走進自己的情感世界,傾聽最隱祕的心事,這個邏輯其實不難理解。較之於動輒數百元一次的傳統心理諮詢服務,AI憑藉幾乎零成本的服務門檻、24小時在線的及時性,以及算法賦予的無限包容能力,讓情感支持變得觸手可及。
「AI和心理諮詢都依賴語言,這是個自然而然的事。」簡單心理創始人兼CEO簡裏裏認為。
2014年,簡裏裏辭去大學心理老師的工作,創辦了簡單心理,從為心理諮詢師和來訪者做對接的移動平臺起步,後逐漸搭建起從科普教育、線上線下社區,到心理諮詢、企業服務的數字化精神心理健康服務平臺,To C端累計提供超300萬小節的專業心理諮詢服務。今年夏天,簡單心理上線了面向C端用戶的AI諮詢助理產品。
從業十餘年,簡裏裏親歷了傳統心理諮詢行業發展中的種種侷限,比如受衆有限、資源不均,期待AI能打破固有壁壘。但同時,她又刻意、謹慎地與當下主流的側重陪伴和安撫的AI產品開發邏輯保持距離。
簡裏裏認為,心理諮詢不是一種創造及時滿足的服務,而是要引導來訪者直面痛苦、走出創傷。但同時,它與人類天然渴望傾訴和陪伴的情感需求又不完全涇渭分明,兩者存在諸多重疊之處。
過去,分別作為處理心理健康問題的方式,專業心理諮詢和輕量的情感陪伴都只能「服務於在人生特定階段願意接受其服務模式的人」。但如今,AI的出現,有可能帶領兩者各自「向中間邁出一步」,甚至創造出一種全新的服務範式。
那麼,未來,AI真的會比人類心理諮詢師做得更好嗎?我們該如何讓AI更合理地服務於人的心理健康?就這些話題,簡裏裏為我們帶來她的思考。
對話(經編輯):

在一些情況下,
AI可以「比新手諮詢師做得更好」
36氪:大概是從什麼時候開始,你覺得簡單心理需要在AI上做一些佈局?
簡裏裏:我算是Open AI比較早期的付費用戶,但當時主要把它作為工具在用,想看看它能幹些什麼,沒有進行過情感類的對話。後來在一次和GPT的隨意對話中,我發現它可以把我講的上下文內容聯繫起來解讀,我當時覺得,「它可以捕捉到了」。
這其實只是大模型能力的「湧現」。過去,這通常是諮詢師需要花很多時間來學習的一個基礎能力。因為你不能無節制地跟着來訪者的話題走,要能夠從許多個片段對話中理解來訪者沒有用語言表達出來的情緒。
於是,今年年初,簡單心理開始認真做這件事。我們的傳統業務主要分為直接服務來訪者,以及為專業心理諮詢師提供培訓兩部分。所以在開發AI產品時仍在根據這兩條線索做。
一個是面對專業諮詢師的To B業務,坦誠講我們暫時不想把它商業化,主要以服務我們自己的諮詢師和學員為目標,幫助他們提高執業水平,進而提高平臺內整體的服務質量和能力。
To C層面,我們推出了AI諮詢助理,承擔一部分客服或以前的諮詢助理的工作。最開始,我們沒有給用戶動機,沒有引導他們把AI諮詢助理當成諮詢師來聊天。因為當時我們更想驗證的是,人們在心理諮詢這個需求上到底願不願意使用AI。
36氪:很多人都在和AI諮詢情緒、情感問題,怎麼理解「人們在心理諮詢這個需求上是否願意使用AI」?
簡裏裏:就是從產品設計上講,我們不想把它做成一個輕量的AI陪伴類產品。現在大家談的「AI+心理」是一個很寬泛的概念,比如和AI談戀愛、和AI不間斷地聊天,當前已經有很多這種產品了,我並不認為市場上會缺一個這樣的心理健康類APP。
但回到簡單心理,我們只懂心理諮詢。在心理諮詢這個範式裏,它和情感陪伴有比較清晰的區別。
首先,心理諮詢很少給建議和答案。心理諮詢是在「我對你有足夠多瞭解」的基礎上給予一些評估或啓發,這個啓發最好是諮詢師和來訪者共同討論、領悟出來的。所在在簡單心理的AI產品上,我們預設了大量啓發式詢問,這可能不適合大多數尋找情感陪伴或答案的人。
此外,我們也經常向來訪者科普,心理諮詢不是一個令人愉悅的過程,你必須不斷面對你的創傷。它也不會像普通AI那樣為了把對話延展下去而無限順從你,它能接納你的情緒,但也要告訴你,很多事情是有邊界的。
這是我們希望簡單心理的AI產品和其他陪伴類AI產品不一樣的地方。所以我們在訓練AI時,努力讓它不要和用戶在問題的表象上糾纏,而是尋找更深層次的原因。比如面對一位想離婚的用戶,不要去討論「該不該」離婚,而是去理解「離婚」這個決定對於用戶意味着什麼、對於用戶的自我認識產生什麼樣的影響等等。
這時,很重要的一個問題就是,用戶能不能忍受和一個AI進行很辛苦的、不斷尋找答案的對話?他們願不願意用這樣的方式和AI互動?
我們現在的答案是,很多人是願意的。簡單心理的To C的諮詢助理AI在今年8月正式上線,它沒達到很完美的狀態,但我們發現,使用它的用戶不止是來尋求助理的行政服務,70%的用戶都會向它傾訴,而且反覆在用;同時,它也吸引了一部分過去可能不太瞭解心理諮詢,或經濟上無力負擔相關服務,但有強烈的自我探索慾望的用戶。在這個維度上,簡單心理的用戶羣是有拓展的。這給了我們很大信心。
36氪:你覺得用戶為什麼會這麼自然地接納AI?
簡裏裏:我們的感受是,用戶對AI反而更寬容。我們在用戶訪談時也會問,和AI對話會不會覺得它不理解你,或者它是個機器。用戶說都有,但這並不妨礙他們將AI視為一個穩定、可信任的對象。
我猜測,或許是用戶覺得AI更可控。因為面對一個人類心理諮詢師時,你不知道對方是怎樣的人、會給自己什麼樣的反饋,這些都不可控。但面對AI時是相反的,所以他們願意讓渡一些信任給AI。
36氪:聽起來他們覺得AI表現得不錯。
簡裏裏:在一些簡單的、比較短的片段諮詢裏(比如20個對話來回),AI已經表現得還不錯了,有時候比新手諮詢師做得更好。我們調研的用戶也有人提到,他覺得相較於市面上的一些通用模型,簡單心理的產品表現得更接近人類心理諮詢師的說話方式。
某種程度上,我覺得AI在片段諮詢裏表現好,是因為片段諮詢有一定技巧,共情能力夠不夠、某句話探索的方向對不對,有相對清楚的答案。但是,心理諮詢的週期很長,在長時間的對話、或是多個諮詢小節裏,AI還能不能持續抓取記憶、如何使用過去的情緒和感受素材,融合在一起深入推進談話;這仍是個待探索的問題。
目前,簡單心理在開源模型基礎上做微調,目標是希望模型儘可能地按照人類心理諮詢師的回答、討論方式來工作。但坦誠講,由於大模型能力在不斷變化,以及心理諮詢業態的特殊性,我覺得這件事不太可能根據現有的方法論來做,比如依照某個方法訓練模型、清洗和標註數據,它就能生成想要的結果,這個不太可能。但我們對這件事比較有耐心。

AI,給心理諮詢帶來「平權」的可能性
36氪:AI可以表現得不錯,但還沒有達到你理想中的完美狀態,它「差」在哪裏?
簡裏裏:這個問題還是要回歸到心理諮詢的形態上。傳統心理諮詢「設定」中,固定的時間地點、諮詢時長是一件非常重要的事。因為我們要劃清邊界,營造一個安全心理空間來承載來訪者的情緒和創傷。正是這些時刻才能推動心理諮詢的進展,讓諮詢師有機會和來訪者進行討論。這是行業堅持了將近百年的傳統。
但AI全天候在線,意味着諮詢框架帶來的、使諮詢發生的很重要一部分消失了。對應到產品設計上,你怎麼讓用戶接受「這是個不會24小時在線的AI產品」這件事?
一個AI心理諮詢產品,它既和人類諮詢師的工作方式不一樣,也不能是一個24小時在線的「好朋友」。它的諮詢設定應該是什麼樣的?我覺得產品設計層面上,它需要被重新定義,這也是行業未來需要討論的。
36氪:用戶可能覺得24小時都在是AI很強大的優勢,但放在心理諮詢上不一定是好事?
簡裏裏:我覺得是個災難。就像人在成長過程中要逐漸形成自己的價值體系,擁有自己的社會支持系統,心理諮詢的最終目標是讓你能夠獨立,能夠忍受規則、接受不如意,並和它共處。這是一個逐漸「擺脫」諮詢師的過程。所以,永遠的、24小時的陪伴是糟糕的。
打個比方,這個過程就像小嬰兒慢慢長大,和媽媽說「拜拜」。什麼情況例外呢?當一個人處在一個創傷非常嚴重、退行到「小嬰兒」的狀態時,24小時的陪伴是非常好的、是需要的。但當我們談到大部分人在使用的心理服務,從心理諮詢角度去理解的人格層面上的幫助、或者讓一個人在人格層面的創傷可以被療愈,這個產品一定不是24小時的。
36氪:針對這種諮詢設定上的不同,簡單心理有對應的解決方案嗎?我理解用戶肯定還是希望能隨時和產品對話,兩者聽起來有些悖論。
簡裏裏:我們有一些初步的方案,但可能等上線做一些嘗試後更方便分享。
36氪:聽起來,你們想做的是一個垂直領域的、小而美的產品?
簡裏裏:我覺得如果真的能把我想的都實現,肯定就不是小而美的狀態了。
簡單心理過去服務的用戶中,約20%-30%是那些可以在醫院內診斷出疾病的用戶,再往外圍擴纔是處在痛苦中、想尋找解決途徑的人羣。但在這個維度上下,仍有很多還沒有做好準備付費做諮詢的人,如果AI能把這部分人羣拓展過來,比例已經足夠大了。
舉個例子,簡單心理做企業端業務時一直有個困擾,我們的心理諮詢服務供給和部分羣體的需求其實是錯配的。而心理諮詢師的受訓方式,決定了很多時候他們更擅長服務有相似話語體系、認知框架的人羣。比如現在心理諮詢的方式可能無法滿足外賣員等藍領的需求。
這是傳統心理諮詢學科的階級侷限。
所以,一定程度上,心理諮詢的規則設定也是在「挑選」用戶。舉個例子:心理諮詢並不鼓勵用戶遇到問題衝動下單。在簡單心理上,用戶是無法預約到當天的諮詢,最早要約到第三天。因為心理諮詢需要人在一個心理層面上能夠「等待」的狀態下,你才能更好地使用心理諮詢,與諮詢師討論你的感受的狀態。
但切換到一些羣體時,這套模式或許很難走通。他們想要的更實際也更即時,比如夫妻長期異地分居、小朋友來城裏上學不適應,怎麼辦?這時你和他們談人格創傷,他們未必需要。這些羣體其實也是過去10年裏,我們很希望能有好的產品來服務的一部分人。他們需要情感支持,而心理諮詢服務又顯得太「重」了。
但AI是可以往中間走一步的。它一定還走不到「你的小孩不想上學,我現在就告訴你怎麼讓他去上學」的狀態,但它可以給你一些及時的建議和回覆,讓人們的情緒得到傾聽、也獲得一些方法。
36氪:就像你的身邊有一個接受過心理諮詢學科培訓的朋友,當你情緒崩潰時,他可以給予一些直接的支持。在當下的時間點上,AI是這樣一個角色。
簡裏裏:是的。因為,實際上有傾訴需要的用戶非常多。過去10年,簡單心理一直設定了免費的傾訴熱線,但始終是供不應求的狀態。但AI可以處理這些,它目前還無法提供傳統意義上的一週一次、長期進行的諮詢,但可以成為一個懂心理知識的朋友,能在一定時間內給你一些辦法和支持。我覺得這個是有意義和價值的。
做簡單心理10年,從人文角度,我們想服務更多的人羣,但在傳統心理諮詢師培養體系下,這非常困難。
今年開始做AI之後,我們做了很多心理諮詢低支付能力者的用戶訪談,這也讓我重新找到了創業的意義感。不管它最終會形成怎樣的商業價值,它首先是對人有幫助的。接下來,在產品方面,我們也會做一些更有針對性的設計。
36氪:未來,AI需要越來越像人類心理諮詢師,還是跟着它自己的腳步發展,創造出一個可能不相同的範式?
簡裏裏:我覺得會形成新的範式,創造新的可能性。但當下的主要任務,是讓AI先具備人類心理諮詢師的能力。至於它能不能比人類心理諮詢師做得更好,甚至補充一些人類沒有的東西,這是未來的事。

替代人類諮詢師?
不,其實是機會
36氪:你提到AI可能比人類諮詢師做得更好,AI衝擊就業也是大家普遍關注的問題,怎麼看它對心理諮詢行業可能產生的影響?
簡裏裏:這是各行各業都會面臨的問題。首先,我對人類心理諮詢師的存在很有信心。可以做個類比,簡單心理10年前上線時就開始提供視頻諮詢的選項,但直到現在,將近一半的用戶還是會選擇面對面諮詢。無論技術多麼發達,人類始終有和人類溝通的訴求。
此外,我自己的體驗是,人類所有的技術變革其實都很慢。技術可能很快就成熟,但讓人類討論立法、倫理、設定,肯定會有很多阻礙。
十幾年前,我們的第一個投資人Timothy Draper曾給過我們很多創業tips,其中一條就是「你最終會發現,讓人們接受變化是無比困難的事情」。我覺得某種程度上,這也給了人類很多時間去準備。
36氪:套用那句話,「替代諮詢師的不是AI,是會用AI的諮詢師」。可能對於諮詢師來說,AI也會給他們機會。
簡裏裏:從長遠來看,我覺得AI可以比較好地完成人類心理諮詢師70%-80%的工作;但另一種更容易實現的目標是,AI為諮詢師提供更強的輔助、學習能力。
比如,從業者羣體中,新手心理諮詢師是比較弱勢的存在,因為督導訓練很貴。但AI就像一個24小時在線的督導,如果你遇到比較困難的個案可以直接和它討論,還不用在意督導對自己的評價、督導的性格如何。
我現在非常努力地讓公司的諮詢師運營團隊先用好AI,再通過他們鼓勵諮詢師用AI。這是一個特別好的工具,如果你覺得它給的答案不夠好,就換個問法,但一定要用。
36氪:未來,人類心理諮詢師和「AI諮詢師」之間的關係可能會是怎樣的?
簡裏裏:心理諮詢這個行業一直以來的問題就是好的心理諮詢師不夠多、優質的服務太昂貴。所以我覺得未來會形成分化,有一部分用戶仍然會期待人與人之間的交流,但更廣泛的羣體會轉向AI。
心理諮詢這個領域比較容易被AI技術關注,是因為它大量使用語言,而AI看起來擅這個。所以當下這個階段,很多人想進入這個賽道是很自然的事情。十年前大家做上一代互聯網產品時也是這樣,有技術、有邏輯,我們就先上,再根據用戶的反饋調整。但到了這一步,大家看用戶反饋的角度已經是不一樣的了,再改進的方向也會不一樣。如果往後再看五年、十年,大家做出來的產品形態一定不同。
36氪:你覺得,未來的「AI+心理」產品會是什麼樣的形態?現在看,大家好像都在設計不同的虛擬形象,給他們很清晰的人設,讓用戶自己選擇。
簡裏裏:我可能不會沿着這個思路來做。一是當下的AI在技術上還很難做到持續按照某個角色設定和用戶互動,它會很快「出戏」。與其用AI做這個,不如直接去做遊戲。另外我用最保守的精神分析設定來舉例,這門學科對於心理諮詢師最初的要求是「你要像一塊空白螢幕」,來訪者完全不瞭解你是誰,才更有可能將他的客體投射進諮詢關係中去工作。但是預設角色後,這就會更干擾諮詢的進程。
但在行業發展初期、急於搶佔市場的階段,這是最容易想到的方式。至於它是不是最好的方式?我現在也沒有答案。但我覺得到明年左右,市場會初步給出結果。如果此路不通,一定會有新的產品形態出來。
36氪:這也是大家比較擔心的問題,逐漸已經出現一些與AI進行情感類對話而造成的負面案例。尤其是對一些既往就有心理疾病苗頭的人羣,怎麼保證他們的安全?
簡裏裏:出現在新聞報道上的可能都是相對極端、少量,但很有色彩的事件。在海外,確實有一些地區開始明確立法,不允許AI介入心理治療或心理諮詢。國內目前討論的不算多,因為行業發展還非常初期。
就像大家都會責怪遊戲危害青少年,但事實上,應該是青少年先在生活中受到了創傷,遊戲才成為彌補情感空缺的替代品。AI也是一樣。我認為,更清晰的倫理討論和立法一定是重要的,但它不該被一刀切。