這個名叫Yrsa Sverrisdottir的冰島人總是引起人們的注意。
一開始是伴隨著她成長的芭蕾舞表演,讓她享譽冰島。接著是科學,她成功地登上了學術會議的演講臺。自從2010年她搬到英國牛津大學學習神經科學之后,上述這些都成為她留個世人的表象。有著北歐人迷人金發的她說:「我只是站在這里,這不是我能控制的。」
移居英國之后,她發現自己不再如往日一般享受他人的關注。在人群中,她開始感到不適。她的人際關系也受到了影響。在她的生活中有一些很明顯的壓力來源,例如父母雙雙去世,而這些壓力的影響似乎并沒有隨著時間逐漸淡去。
Yrsa Sverrisdottir
到了2012年底,她說:「我覺得我正在失去控制。」這時她遇到了Fjola Helgadottir,一個牛津城內為數不多的冰島同鄉。Helgadottir在牛津從事臨床心理學研究,他設計并創造了一個可以幫助人們自己發現和管理心理疾病的機器人程序。
Sverrisdottir決定試一試。
這個基于認知行為療法(CBT)技術的機器人程序被命名為CBTpsych。程序一開始會先和用戶進行幾天的互動問答。「這個過程相當另人筋疲力盡,」Sverrisdottir說。問答的過程一開始很容易,只是一些個人細節。但是之后問答的內容逐漸加深。這個過程反復進行數月之久,在此過程中程序迫使她檢測自己的焦慮情況,并且挖掘出令自己痛苦的想法。CBTpsy診斷她患有社交焦慮癥,事實也確實如此。Sverrisdottir意識到自己內心深處其實「不想讓別人看見我這樣」。接著這個程序扮作一位經驗豐富的心理治療師,引導她通過大量的真實世界聯系治療法來學會控制自己的社交焦慮。這聽上去似乎像是一個典型的臨床心理學的成功治療案例,但是,卻沒有一個人類心理學家參與其中。
CBTpsych并非唯一的機器人心理治療程序,也不是技術最復雜的。南加州大學(USC)的心理治療系統Ellie,使用人工智能以及虛擬現實來打破人和機器的界限。這個項目最早由美國軍方資助,專注于診斷及治療心理創傷。由于患者是和電子系統進行互動,這個項目中產生了大量關于心理治療的重要數據。南加州大學領導這個項目的Albert Skip Rizzo表示,這個項目的目標簡單地說不過是要「將臨床心理學哭天喊地地拽進21世紀」。
但是臨床心理學家是否會接受人工智能加入到他們行列呢?這個問題目前還不確定 。紐約特洛伊倫斯勒理工學院的認知科學家和AI研究學者Selmer Bringsjord表示:「無法清楚預估AI作為計算機化心理治療的輔助工具所帶來的不可限制的沖擊力,這雄心令人難以置信。」
如今,所有虛擬心理專家的起源都要追溯到ELIZA,這是一個創建于上世紀的計算機聊天程序。就像皮格馬利翁創造的還沒有獲得語言能力的女子一樣,這個ELIZA不過是系統工程師約瑟夫.魏澤堡和其他計算機科學家于20世紀60年代在MIT研究人機互動時共同編寫出來的幾千行代碼。
ELIZA遵循如何應對對話的程序規則。最有說服力的結果來自模仿精神治療醫生的一種DOCTOR規則:ELIZA不直接進行提問,轉而通過病人的問題描述,誘導他們暢所欲言,比如應對病人傾訴「我感覺無能為力」時,ELIZA可能會回答,「為什么你會有這種感覺呢?」
人們傾向于接近ELIZA,或許因為她更新奇而并非其對話技能,但AI研究員卻并不為所動。「你可以制造一個并沒有什么真正的智能的AI系統,這一想法就是欺騙,」加計算機科學家、同時也是魏澤堡門下博士生的Terry Winograd這樣說道。該領域進入盲目樂觀的時代,不少研究員預測計算機持平人類智力將指日可待。
但是人工智能基礎工作并不成功,資金和利益鏈的斷裂導致了眾所周知的「人工智能寒冬」,直到新千年人工智能再度成為主流卷土重來,驅動了 「弱人工智能」得到進一步的提升,從而集中在語音識別和機器視覺等具體問題上。
能對話的機器人,比如ELIZA仍被許多計算機科學家看作是供人娛樂的小把戲。但對話機器人在臨床心理學方面有不俗的表現。他們的成功秘訣恰恰是人工智能研究員們所回避的一點:非智能電腦有能力欺騙人們相信他們在與一個智能的、有感情的人談話。
要做到這點并不容易。Rizzo清楚的明白,打斷病人和Ellie談話的最常見原因并不是談話的內容,因為電腦恪守Rizzo團隊根據傳統臨床心理治療編寫的腳本。他說,「問題在于計算機沒有通感。」這指的是人類在談話中會不自主的追蹤和反映彼此的情感。
比如,一個病人會對Ellie說,「今天我挺不走運。」但語音識別軟件漏聽了「不」字。所以Ellie笑著大聲說:「太棒了!」如果這套人工智能系統正試圖建立與病人的聯系并獲取病人的信任的話,「那結果就糟透了。」
為改進通感性,照相機被用來追蹤病人的心理表征:表情,體態,手勢,語氣。Ellie綜合分析這些數據用來測量出情感的狀態。
「這些模式會很細微難以捕捉,」Louis- Philippe Morency說。他是USC計算機科學家,一直領導著基于Ellie的人工智能研究。他舉例一個人的語氣可以「從順暢變到緊張。」這個團隊發明了好些算法來識別情感狀態的模式。他說道,「雖然并不完美,但我們的實驗表明這些算法能夠和病人心理痛苦程度有較強的關聯。」
其他模式被分成很多小課題來研究。比如,這個團隊對患有創傷后壓力精神紊亂癥(PTSD)的美國退伍軍人進行的研究表明「微笑時的變化」可以用作對抑郁癥的預測。這種模式非常細微,只有用電腦才能捕捉:抑郁癥患者微笑的頻率一般保持不變,但每個笑聲的持續時間和強度有減退。
Rizzo說,即使Ellie完美地解決了通感的問題,它「也只是一個增強版的ELIZA。」藏在下面暗中發揮作用的AI最多只能維持一段長約20分鐘的對話,接著魔法就破滅了,這極大地局限了該系統在大多數心理疾病的診斷和治療方面的用途。如果不能掌握精妙的自然語言處理和語義知識,Ellie就永遠沒法讓人們相信自己是在和一個人類說話。但是,也還好,Rizzo說:如果太像人類,反而可能后院起火。
Rizzo的實驗室發現了一個與直覺相違背的現象——他們在實驗中告訴一些病人,Ellie是一個由人操縱的木偶,同時告訴另一些病人她是完全自主的,結果,那些被告知Ellie是木偶的病人在治療過程中的參與度更低,也更加不愿意敞開心扉。
運行在Emac里的ELIZA
對Winograd這樣的AI研究者來說,這不足為奇。「這種事可以追溯到ELIZA,」他說,「當你不會感到被批判時,才會吐露心聲。」
如果AI療法變成主流,將引發倫理和隱私方面的爭論。Winograd擔心,在線服務可能不會坦誠公布是否有真人。「總有可能為了病人好而欺騙他們,比如說讓他們服用安慰劑當做藥物,」他說。但是,對AI療法來說,「你必須讓病人清楚地知道,和他們對話的是機器,而不是人。」
如果病人很樂意對機器敞開心扉,那還需要臨床醫師嗎?在這點上,Rizzo很固執,他堅持認為人的涉入是必要的,因為機器不能對病人產生真誠的共情。他指出,在Ellie到達黃金時代之前,還有很長的路要走——這個項目目前還沒有具備從單個病人那里學習的能力。Rizzo把AI系統想象成一種收集基線數據的方法,為心理學家提供標準,就像驗血報告里那些標準值一樣。「目標并不是取代人,」他說,「而是為人類的護理人員創造工具。」
Helgadottir有一個更加大膽的愿景。盡管計算機在近期還無法取代治療師,她說:「我相信,在某些情況下,計算機療法能在無人干預下獲得成功……尤其在人們不適合做治療師的那些方面。」計算機可能比人類更具有探索性,也更加客觀。
Sverrisdottir的經驗告訴我們,CBTpsych療法至少有些不同。她說,在該項目的指導下,「當我處在人群中時,我慢慢地開始分析自己。」她發現了自己的一種模式,「對批判我的人會產生負面想法」。為此,她可能去看過心理醫生。但是, Sverrisdotter說,自從她和計算機談話的那一年開始,那些縈繞在她心頭的煩惱,「已經能夠做出改變。」