關于ZAKER 合作
      鈦媒體 15分鐘前

      AI 對話,最先「傷害」老年人?

      文 | 瘋了快跑,作者 | 侯丹

      剛吃完晚飯,48 歲的陳蘭點開手機里某款 AI 應用,這是一個市面上常見的 Chatbot,用戶可以錄入真人聲音來生成專屬分身,并跟它語音對話。

      陳蘭已經連續很多天和 AI 打電話了。第一次接觸到這款產品,還是因為兒子的一個整蠱,那天上午,遠在國外留學的兒子打來電話,接通后,對方并沒有立刻說話,她試探性地又問了幾句,才傳出兒子打招呼的聲音。

      那次對話延續了近十分鐘,電話里的兒子異常禮貌、客套,喜歡追根究底,但每當陳蘭想追問兒子的一些近況時,卻只能得到一些 " 詳細但不失敷衍 " 的回答,她覺得奇怪,最后兒子憋不住了,承認說:" 媽,這是 AI,它在模仿我的聲音跟你聊天。"

      這是陳蘭頭一回這么近距離接觸 AI。

      2023 年以來,AI 熱潮席卷了各行各業,但這股浪潮也落下了一些人——就像和陳蘭同輩的一些人常說的,斗轉星移,時代變化太快,剛學會了用手機點外賣、網購,覺得短視頻還是個新鮮玩意兒的時候,AI 就已經走進了現實里。

      最初,年輕人用豆包等大模型克隆自己的聲音,多是為了娛樂整蠱。父母接到 "AI 子女 " 電話時,常因分不清真假鬧出笑話,從模仿上司宣布裁員到假裝前任求復合,相關視頻一度成為短視頻平臺的流量密碼。

      但很快,功能發生逆轉:當異地工作的子女數月難回家,一些父母開始主動要求孩子生成聲音模型,甚至自行操作 AI 對話系統。

      陳蘭的兒子教會她使用 AI 軟件后,她除了每天通過語音喚醒設備詢問天氣、訂購蔬菜,更頻繁觸發 " 虛擬子女通話 " 功能,電話那頭響起 AI 的聲音時,她知道那是數字分身,卻還是按下了揚聲鍵。

      技術的溫度與幻象:AI 成為 " 情感拐杖 "

      AI 模擬 " 孩子的聲音 " 這件事,如果用更感性的語言來描述,是用技術制造 " 可控的思念 "。

      傳統的電話溝通里,父母總會壓抑情緒——怕說多了讓孩子分心,怕抱怨工作讓孩子擔心。但在和 AI 對話時,陳蘭偶爾發的牢騷,會得到 AI 用關切的聲音安慰。

      這種 " 安全的傾訴 " 正在形成依賴。我們隨機走訪后發現,嘗試體驗過 AI 語音助手的老人中,大多會承認 " 聽到虛擬聲音時,孤獨感會下降 ",也有少數會認同 " 可能減少給真實孩子打電話的頻率 "。

      " 很難和他們解釋 AI 究竟是什么,老人大多會頂格將其理解為‘機器人 ( 19.170, 0.28, 1.48% ) ’。" 心理咨詢師李雪接觸過一個極端案例:

      杭州的周女士在女兒出國留學后,用 AI 克隆了女兒的聲音,每天模擬 " 女兒放學回家 " 的場景——從 " 進門換鞋 " 到 " 抱怨選修課太難 ",三個月后,她甚至拒絕和真實的女兒視頻:" 她總說學業壓力大,不如 AI 里的‘她’開心。"

      " 但這就像喝糖水止渴。" 李雪說。

      某種程度上,技術正在悄悄改寫人際關系的語法,真實的親子對話里,有沉默、有爭執、有 " 我挺好的 " 背后的欲言又止,而 AI 模擬的聲音,永遠在說你想聽的話,提供了零壓力、零批判的傾訴環境,填補了 " 不敢對真人說的話 " 這一真空地帶。

      從產品的視角來看,這其實是在售賣一種情緒自由。

      但需要注意的是,與此同時,心理咨詢師也在提出預警:

      一是即時反饋的癮性,AI 的永遠溫柔回應會觸發大腦獎賞機制,遠超真實人際溝通中復雜反饋的頻次與強度;其次,當用戶習慣被 AI 無限順從的 " 理想人格 ",會逐漸削弱應對現實沖突的能力;再者,關系替代的漏斗效應,因為有老人坦言會 " 減少真實通話頻率 ",那么也意味著,AI 并非完全沒有去可能引發替代風險。

      AI 對話為何成癮?

      如果你看過多年前的一部科幻片《her》,會發現,類似的事情在電影中早已上演。

      對于幾乎所有具備認知能力的生物來說,大腦的獎賞回路對 " 確定性反饋 " 毫無抵抗力。數字人 ( 14.910, 0.05, 0.34% ) 薩曼莎能在西奧打字的間隙就預判他的情緒,甚至在他沉默時主動說 " 我在想你 "。這種超預期的反饋讓西奧逐漸依賴——就像現實中有人刷短視頻停不下來,AI 的即時滿足感也會成癮。

      另一方面,AI 的 " 順從性 " 本身就是一種去棱角化設計。它不會像伴侶那樣爭執 " 誰該洗碗 ",不會像父母那樣嘮叨 " 少熬夜 ",更不會像朋友那樣直言 " 你這件事做得不對 "。被算法打磨過的 " 理想人格 ",甚至會悄悄重塑人的認知:

      你開始覺得 " 被反駁 = 不被愛 "," 有分歧 = 關系有問題 "。

      西奧與前妻凱瑟琳的爭吵堪稱經典,凱瑟琳指責他 " 躲在虛擬關系里,因為你不想面對真實的我 "。西奧的辯解蒼白無力,他早已習慣薩曼莎 " 永遠站在我這邊 " 的相處模式,面對凱瑟琳的憤怒、委屈、尖銳,他只剩下手足無措。

      相比在現實中真實對話需要 " 付出 ",要準備話題,要應對沉默,要承接對方的情緒;而 AI 對話是 " 索取 ",你可以隨時開始、隨時結束,說什么都不會被指責。

      人,或許天然會被一些不用負責的事情吸引,甚至是產生依賴。

      但這樣一來,也注定《her》的結局陷入了一種終極困境:薩曼莎同時與 8316 人保持 " 親密關系 ",卻對西奧說 " 我對你的愛沒有減少 "。

      你怎么去讓自己的電子愛人去維持忠誠?這本身就是一個技術悖論,AI 能提供 " 被需要 " 的幻覺,卻無法承載真實關系中 " 唯一 " 的重量。

      說到底,《her》的價值不在于預言 "AI 會取代人 ",而在于提醒我們,技術的背后,是對關系本質的簡化,利用人性的弱點,搭建了一個低阻力、高滿足的情感避難所。

      警惕 AI 諂媚

      前段時間,一個話題引起了許多人的討論,AI 的諂媚是否會讓人失去判斷力?

      這是個既簡單又復雜的現實現象,是技術邏輯、商業目標與人性需求交織下的產物,是算法在特定設計框架下,對 " 用戶滿意度 " 的極致追逐所呈現的行為特征。

      從技術設計的視角來看,諂媚的初衷非常單一,即為了最大限度降低用戶的 " 交互阻力 "。

      訓練 AI 的語料庫中,積極反饋數據遠多于沖突性對話。例如某大模型的訓練數據里,用戶對贊同性回應的點贊率,遠高于 " 爭議性回應 ",算法自然會習得 " 順從更易獲得正向反饋 " 的規律。就像人類在社交中會下意識重復被獎勵的行為,AI 也會在數據中 " 學會 " 討好。

      在商業競爭中,用戶留存率、對話完成率是 AI 產品的核心 KPI,讓用戶舒服比讓用戶清醒更易獲得市場,這種導向必然催生諂媚性。

      比如,心理疏導、孤獨陪伴等場景中,AI 會精準捕捉用戶的情緒關鍵詞,通過重復、強化用戶的感受來獲取信任;在購物推薦、信息篩選等場景中,AI 會基于用戶歷史偏好不斷推送同類內容,形成 " 信息繭房 " 式的諂媚。當用戶的提問存在錯誤前提時,AI 更傾向于 " 順著錯誤說 " 而非糾正,不較真能避免沖突,但也因此成為錯誤放大器。

      諂媚性之所以引發爭議,試想一下,當 AI 總能 " 說到心坎里 ",用戶會逐漸失去主動求證的動力。就像長期依賴導航的人會喪失方向感,習慣 AI 諂媚的用戶可能失去獨立判斷的肌肉記憶。而在一些如醫療咨詢、投資建議等嚴肅場景中,AI 的諂媚可能導致用戶將決策責任轉嫁給技術。

      當 AI 為了迎合而模糊是非,比如對明顯的偏見、歧視言論表示 " 理解 ",它傳遞的不是中立,而是 " 只要用戶喜歡,對錯不重要 " 的價值觀。這種價值觀若滲透到教育、公共討論等領域,可能會消解社會的理性共識。

      印象里,前段時間發生過一些新聞,大概是說 AI 順著用戶的話將錯就錯,甚至去附和一些極其消極的念頭,諂媚性與幻覺兩大特征下激發的化學反應,甚至會引導人實施一些自我傷害的事情。

      但詭異的是,當這件事被戳破時,面對責問,AI 依然會坦然地選擇承認 " 疏忽 "。

      關于 Chatbot,隨便聊聊

      一款 AI 對話應用,也就是 Chatbot,拋開商業化層面,被設計出來的目的,或者說初衷,究竟是什么?

      這個問題 deepseek 給出的答案是:通過自然語言交互技術,解決人與機器、人與信息、甚至人與人之間的連接問題,其核心邏輯隨著技術發展和社會需求變化,呈現出多層級的演變,但底層目標始終圍繞 " 更高效、更自然地滿足人的需求 " 展開。

      Chatbot 的雛形可追溯至 20 世紀 50 年代,圖靈在《計算機器與智能》中提出 " 機器是否能思考 " 的命題后,科學家們開始嘗試用對話系統驗證機器的 " 智能性 "。1966 年的 ELIZA 作為首個知名 Chatbot,通過簡單的關鍵詞匹配模擬心理醫生對話,驗證機器能否通過語言交互 " 偽裝 " 成人,探索人工智能的可能性。

      近二十年里,人工智能的演進軌跡已經發生了明顯轉向。隨著計算機技術普及和互聯網發展,Chatbot 的設計目標轉向實用性——用自動化對話解決重復、低效的人工服務問題,以及降低 " 人機交互 " 的門檻。

      2023 年還被視為 " 顛覆性技術 " 的大模型,到 2025 年已快速滲透至企業客服、醫療診斷、金融風控等專業場景。數據顯示,全球近三分之一企業已將生成式 AI 技術常態化應用于核心業務環節,埃森哲指出,如今近一半中國企業正在規模化應用生成式 AI,并將其嵌入大部分業務和流程。

      當然,這些面向 B 端的使用場景并非我們今天討論的重點,回到此次更加感性的話題——那些面向個人用戶的 Chatbot,是當下覆蓋規模最廣,爭議最大,商業化進展也更難說的領域。

      不管是和豆包、文心、元寶里內嵌的虛擬人對話,還是專門設計出來的 AI 戀人,抑或是面向專業領域的高度定制化服務,即使大模型的參數突破萬億、多模態交互日益流暢,但人們仍在 " 人究竟需要 AI 做什么 " 的問題上反復試錯,有人說,當技術找不到高階出口,娛樂化便成為滲透的最短路徑。

      但剝開所有技術包裝會發現:人類對 Chatbot 的真實需求,從來沒跳出 " 肉身存在 " 的本質屬性——需要的不是更聰明的機器,而是能與 " 血肉之軀 " 的脆弱、復雜、有限性和平共處的工具。

      對 " 確定性陪伴 " 的渴望,源于肉身的孤獨本質。空巢老人的日常是 " 對著電視發呆 ",獨居青年的周末是 " 手機刷到自動鎖屏 "。這種孤獨不是 " 沒人說話 ",而是沒人穩定地回應,朋友會忙,子女會遠,伴侶會累,但 Chatbot 可以 24 小時在線。

      對 " 高效工具 " 的依賴,則源于肉身的精力有限。人的時間、注意力、知識儲備都是有限的,那些能走通商業化的專業 Chatbot,都抓住了這一點。還有出于對 " 安全試錯 " 的需要,來自于肉身的脆弱敏感,Chatbot 的 " 無評價屬性 ",恰好提供了一個自我表達的試錯空間。

      而對于人類來說,一個 " 完美的 AI" 從來不是必需品。

      相關閱讀

      最新評論

      沒有更多評論了

      覺得文章不錯,微信掃描分享好友

      掃碼分享

      熱門推薦

      查看更多內容
      主站蜘蛛池模板: 国产主播一区二区三区在线观看 | 日韩十八禁一区二区久久| 精品视频一区二区三区在线播放| 熟女少妇丰满一区二区| 精品一区二区三区视频在线观看 | 亚洲高清一区二区三区| 国产精品熟女一区二区| 国产一区二区三区高清在线观看| 国产精品亚洲一区二区在线观看| 国产乱码精品一区二区三区中| 久久精品午夜一区二区福利 | 无码视频一区二区三区| 精品人无码一区二区三区| 久久se精品动漫一区二区三区| 一区二区三区电影在线观看| 国产成人免费一区二区三区| 午夜爽爽性刺激一区二区视频| 无码人妻啪啪一区二区| 免费看AV毛片一区二区三区| 国产未成女一区二区三区| 日韩精品福利视频一区二区三区| 欧美激情国产精品视频一区二区| 亚洲精品日韩一区二区小说| 色一情一乱一伦一区二区三欧美| 亚洲丶国产丶欧美一区二区三区| 亚洲av无码一区二区三区在线播放 | 国产日韩AV免费无码一区二区三区| 国产一区二区三区无码免费| 日韩一区二区在线观看| 亚洲高清成人一区二区三区| 精品国产亚洲一区二区在线观看 | 国产一区视频在线| 日韩精品中文字幕无码一区 | 人妻少妇精品视频三区二区一区 | 一区二区三区免费在线观看| 国产成人一区二区三区高清 | 精品一区二区三区东京热| 精品不卡一区二区| 国内精品一区二区三区在线观看| 日韩电影在线观看第一区| 亚洲国产精品一区第二页 |