編譯:Sail2008
美國LGBT青少年心理危機干預熱線“特雷弗專案”(Trevor Project)藉助基於人工智慧演算法模型GPT-2的聊天機器人來培訓心理諮詢師,為陷入心理困境的青少年提供幫助。
在與遭遇心理危機的青少年進行首次談話之前,“特雷弗專案”的心理諮詢師志願者需要做好準備,所以他們首先要進行練習。其中一種方式是與虛構的人物角色交談,比如“萊利”,一位來自北卡羅來納州的16歲女孩,她感到有些情緒低落。
萊利的角色由一名團隊成員扮演,受訓者們可以深入探查發生了什麼事情:他們會發現這個孩子正在為如何向家人出櫃(承認同性戀身份)感到焦慮,她最近跟朋友講了,但並不順利,以前她還有過輕生的念頭。
為什麼藉助AI?
不過,現在萊利不再由“特雷弗專案”的員工來扮演,而是由人工智慧提供技術支援。
和最初的人物角色一樣,AI版的萊利仍需要哄一鬨才會敞開心扉,因為它進行演算法訓練的依據,是數千份心理諮詢師和專案員工之間角色扮演的文字記錄,這能夠考查受訓者瞭解了哪些幫助青少年同性戀群體的最佳方法。
心理諮詢師不應該強迫萊利出櫃,相反,我們的目標是確認萊利的感覺,並且,如果有必要,幫助她制定一個保持安全心理的計劃。
心理危機干預熱線和聊天服務能給他們一個基本承諾:伸出手吧,我們會為你聯絡到真正能幫助你的人。但即便是最成功的服務有時也無法滿足需求。
“特雷弗專案”指出,美國每年有180萬LGBTQ青少年產生過嚴重的輕生念頭,現有的600名以聊天為基礎的心理諮詢師無法滿足這一需求。
這就是為什麼這個組織和越來越多的心理健康組織一樣,藉助AI工具來幫助它們滿足需求。這是個很有意義的進展,同時也引發了一些問題,即當前的AI技術在弱勢群體生命陷入危險的情況下能發揮多大作用。
AI與人類心理諮詢師:輔助還是替代?
該組織的AI與工程主管丹·費希特(Dan Fichter)表示:“我們過去沒有、現在也沒有打算設計一個AI系統來取代心理諮詢師,或直接與可能處於心理危機中的人互動。”
這種人際互動關係在所有的心理健康服務中都很重要,但它可能對“特雷弗專案”的服務物件尤其重要。根據該組織2019年的研究,LGBTQ青少年如果在生活中至少有一位成年人接納自己,那麼他們在前一年試圖輕生的機率要低40%。
這種基於AI的角色扮演訓練叫做“危機聯絡模擬器”(crisis contact simulator),得到了谷歌資金和工程上的幫助。關於以這種方式使用人工智慧的有效性、準確性和風險,各方意見不一。
佛羅里達州立大學研究輕生行為的心理學教授托馬斯·喬伊納(Thomas Joiner)認為,在特定環境下,AI或許比人類能更準確地評估人們的輕生風險。在現實世界中,由於有更多的變數,AI的表現似乎和真人差不多。然而,它的能耐是以更快的速度對更多的人進行評估。
因此,最好是用它來輔助人類心理諮詢師,而不是取代他們。
“特雷弗專案”仍然要靠人類心理諮詢師對接受該服務的青少年進行全面的風險評估。當心理諮詢師完成了與萊利的互動角色扮演後,會有人對這些文字記錄進行復查。
GPT-2: “萊利”背後的AI演算法模型
開發危機聯絡模擬器的原因是,角色扮演佔用了工作人員大量的時間,而且限制在正常工作時間內,儘管大多數心理諮詢師計劃在夜間和週末輪班時開展志願者活動。
但是,效率並不是唯一的追求,開發者還希望角色扮演讓人感覺更自然,聊天機器人對心理諮詢師志願者的錯誤能隨機應變。
自然語言處理演算法似乎很適合這項挑戰,近來它在模仿人類對話方面做得非常出色。在測試了兩個選項後,“特雷弗專案”決定採用OpenAI的GPT-2演算法。
聊天機器人使用GPT-2演算法模型作為其基本的會話能力。該模型接受了4500萬個網際網路網頁的演算法訓練,掌握了英語的基本結構和語法。“特雷弗專案”隨後用萊利互動角色扮演的所有文字記錄進一步訓練該模型,以便為機器人提供模仿人物角色所需的材料。
在整個開發過程中,團隊都驚訝於聊天機器人的出色表現。沒有任何資料庫儲存了萊利的詳細資訊,但聊天機器人的表現始終如一。
但使用AI也需要權衡利弊,尤其是在弱勢群體的敏感環境中。
GPT-2和其他類似的自然語言演算法都曾被種族主義、性別歧視和恐同思想帶偏過。最近一個例子是韓國的聊天機器人Lee Luda,它的人物角色是個20歲的大學生。在迅速走紅並與越來越多的使用者進行互動後,它開始使用侮辱性語言來描述同性戀和殘疾人群體。
“特雷弗專案”深知這一點,並設計了一些方法來限制出現問題的可能性。
“特雷弗專案”中萊利的關注範圍非常聚焦,心理諮詢師志願者不會偏離經過演算法訓練的對話內容太遠,這就把出現不可預測行為的可能性降到了最低。
AI能取代心理諮詢中的人際互動嗎?
這並非心理健康領域首次嘗試利用人工智慧的潛力,在不傷害幫助物件的情況下提供廣泛的道德援助。
研究人員已開發出很有前景的方法,結合視覺和聽覺訊號來檢測抑鬱症。治療“機器人”儘管不等同於人類專家,但對那些無法找到心理治療師或不願向他人傾訴的人來說,這也不失為一種替代選擇。
每一個類似進展,都需要考慮AI工具在治療弱勢群體時應該發揮多大的作用。目前的共識似乎是,眼下這項技術其實並不適合取代人工幫助。
不過,心理學教授喬伊納表示,這種情況可能會隨著時間的推移而改變。雖然目前來說用AI心理諮詢師取代人類心理諮詢師是個壞主意,但“這並不意味著這種侷限性是永久的。”人們已經與AI服務“建立起人為的友誼和關係”。
他表示,只要人們在與AI交談時不被它騙到,以為自己在和真人交談,那麼未來AI取代人類心理諮詢師的情況就可能會出現。
與此同時,萊利將只會作為心理諮詢師志願者的培訓工具。該專案的資料和AI產品主管Kendra Gaunt表示:“心理諮詢師與幫助物件之間的人際關係對我們做的每一件事都至關重要。我認為這是我們真正與眾不同的地方。”
Come on,給你的靈魂充充電