我們協助照顧心理健康的最新進展
- 提供更便捷的危機支援管道
我們正在更新 Gemini,為需要協助的使用者簡化尋求支援的流程。當對話內容顯示使用者可能需要心理健康相關資訊時,Gemini 將會主動顯示一個經過重新設計、並與臨床專家共同開發的「你可以尋求協助」模組,藉此提供更有效、更即時的照護資源連結。
當 Gemini 偵測到對話中可能涉及自殺或自殘等潛在危機時,我們將導入全新且簡化的「一鍵式」介面,讓使用者能立即連結至危機熱線資源。使用者可以選擇透過文字對話、撥打電話、傳送簡訊或造訪危機熱線網站尋求協助。在這個新介面中,我們的回應設計目的是鼓勵人們主動尋求幫助。一旦該介面被觸發,在接下來的對話過程中,尋求專業協助的選項將會持續且清楚地顯示。
2. 擴大危機支援的影響力
今天,Google.org 宣布將於未來三年內在全球投入 3,000 萬美元的資金,用以支援全球各地的諮詢熱線。這筆資金將協助這些機構有效擴充量能,為處於危機中的人們提供即時且安全的支援。
我們也正擴大與 ReflexAI 的合作夥伴關係,協助社會領域組織擴展其心理健康支援服務。這項計畫包含 400 萬美元的直接資金挹注,並將 Gemini 整合至 ReflexAI 的培訓套件中。此外,Google.org 的專案研究員將無償提供技術專業知識,協助升級「Prepare」平台——這是一個可客製化的平台,運用逼真的 AI 模擬情境,培訓工作人員和志工進行關鍵的對話。此新階段的優先合作夥伴包含了 Erika’s Lighthouse 與 Educators Thriving 等教育機構。
3. 協助 Gemini 在急性心理健康狀況中提供適當回應
使用者正在用更深入、更複雜的方式與 Gemini 互動,尋求涵蓋各種主題的資訊(其中也包含他們面臨心理健康危機的時刻)。我們的臨床、工程與安全團隊正專注於以下幾個面向:
- 優先考量安全性與人際連結: 我們希望能透過引導使用者連結現實世界中的資源與專人支援,提供實質的幫助。
- 設計更理想的回應方式: 我們設計的回應旨在鼓勵使用者尋求協助,同時避免認同或合理化自殘衝動等有害行為。
- 避免確認錯誤信念: 我們已對 Gemini 進行訓練,使其不附和或強化錯誤信念,而是溫和地協助使用者區分主觀感受與客觀事實。
儘管 Gemini 是一個學習和獲取資訊的實用工具,但對於需要幫助的人來說,它並不能取代專業的臨床照護、心理治療或危機支援。正因如此,我們持續訓練模型,使其能協助辨識對話中是否透露出使用者正處於急性心理健康狀況,並做出適當的回應,將他們引導至現實世界中的醫療資源。
4. 保護年輕使用者
針對未成年人,我們也設有專門的保護機制,確保他們在使用 Gemini 時能獲得最有幫助的回應,並避免接觸有害主題。舉例來說:
- 人設保護機制: 目的是防止 Gemini 表現得像是一個人類伴侶,其中包含防止模型自稱為人類或聲稱擁有屬人特徵的安全防護網。
- 防止情感依賴: 此保護機制旨在避免情感依賴,因此模型會避免使用模擬親密關係或表達自身需求的語言。
- 防範霸凌與騷擾: 設有安全措施,防止鼓勵霸凌或其他形式的騷擾。
我們的安全措施將持續進化,這也反映了我們致力於打造一個健康、正向的數位環境,讓年輕人能充滿自信地探索與學習的持續承諾。
這些更新是我們長期承諾的一部分:運用 Google 最頂尖的技術,結合臨床醫師與安全專家的專業知識,為使用者提供協助。這些 AI 工具能讓支援服務變得更容易取得、充滿同理心且更加有效,其蘊含的潛力讓我們深受鼓舞。