關于ZAKER 合作
      量子位 昨天

      人類創造力的核心機制,AI 已經開始掌握了

      "AI 永遠無法取代人類 " 證據 -1!

      北大團隊最新論文揭示:人類引以為傲的創造力,如今 AI 也開始掌握了

      甚至,研究人員還提出了一種系統性框架,首次從認知科學的角度,對 AI 模型的組合創造力(Combinational Creativity)進行了量化評估與優化。

      結果發現,GPT-4 等先進模型在創意理解任務上已經超越普通人類(準確率 70% vs. 50%)。

      這項研究不僅揭示了當前先進模型理解組合創造力的水平,還提出了一種可計算的方法,顯著提升了 AI 的創意生成能力。

      值得一提的是,這篇論文還被認知科學學會年度會議 CogSci 2025 收錄,并被大會選為口頭報告(Oral)進行現場講解。

      所以,這到底是咋回事兒呢?

      AI 開始掌握人類創造力的核心機制

      一切起源于這樣一個問題:

      當 AI 看到寄居蟹住進易拉罐,它想到了什么?

      一只寄居蟹鉆進廢棄的易拉罐——這個畫面你可能在海灘上見過。大多數人只是一笑而過,但藝術家卻能從中讀出深刻的環保警示,比如人類垃圾正在成為野生動物的 " 新家園 "。

      那么,人工智能會怎么 " 想 " 呢?

      最新研究揭示了一個令人驚訝的答案:AI 正在學會像藝術家一樣進行 " 組合創造 "。不是簡單地拼貼概念,而是真正理解為什么某些看似不相關的元素組合在一起會產生全新的意義。

      當 AI 看到寄居蟹與易拉罐的組合時,它不僅能識別出 " 動物 + 容器 " 的基本元素,還能解釋它們之間的功能關聯(都是 " 居住空間 "),更進一步,它開始理解這種組合背后的深層含義,即對人類活動影響自然生態的反思。

      這種從" 識別 " → " 解釋 " → " 引申 " 的三層認知過程,正是人類創造力的核心機制。而現在,AI 也開始掌握這種能力了。

      要知道在人類智能的諸多特質中,創造力被認為是最難被機器復制的能力之一。

      尤其是 " 組合創造力 "(Combinational Creativity),即通過重新組合已有概念,生成新穎、富有意義的想法,被視為真正創新的核心。

      盡管近年來如 GPT-4V、DALL · E 3 等視覺 - 語言模型(VLMs)在生成圖像和文本方面展現出驚人的 " 創意 ",但其底層機制究竟是真正的 " 創造性組合 ",還是對訓練數據的復雜模仿,仍是 AI 研究領域爭論的焦點。

      傳統評估 AI 創造力的方法多聚焦于結果的 " 新穎性 " 與 " 實用性 ",而忽略了 " 創造性過程 " 本身的結構與機制。

      因此,要判斷 AI 是否真的 " 理解 " 組合創造,就必須建立一個能夠揭示其認知路徑的系統框架。

      用系統性框架量化評估 AI 的 " 組合創造力 "

      對此,受認知科學家 Margaret Boden 和認知科學中的 " 概念融合理論 "(Conceptual Blending Theory)的啟發,研究團隊首次提出了一個面向 AI 系統的分層評估框架—— IEI 框架(Identification – Explanation – Implication)。

      該框架將組合創造力分解為三個層次:

      識別(Identification):能否正確分解輸入概念的基本元素;

      解釋(Explanation):能否發現概念間的潛在關聯;

      引申(Implication):能否理解超越原始輸入的語義內涵。

      這一框架不僅適用于評估 AI,也為人類創造力的計算化研究提供了新思路。

      上圖展示了 IEI 框架如何結合 " 概念融合理論 ",對組合創造力進行建模與評估。

      在左側,兩個輸入概念通過共性抽象(Generic Space)與融合空間(Blend Space)產生新的組合創意。

      右側則對應 IEI 框架在理解與生成任務中的三層處理邏輯:從識別基本元素(如寄居蟹與易拉罐)、解釋功能類比(如容器功能相似),再到引申出更深層的意義(如對人類破壞動物棲息地的環保反思)。

      這一流程可用于系統評估 AI 模型對組合創意的理解能力,并引導生成具有多層含義的創意內容。

      實驗結果:超越平均人類,但仍不及專家

      通過構建包含專業藝術家創作組合的數據集(CreativeMashup),研究發現:

      GPT-4 等先進模型在創意理解任務上已超越普通人類(準確率 70% vs. 50%);但在深層語義解讀(如隱喻、文化象征)上,仍顯著落后于人類專家(人類專家的平均勝率為 78%)。

      下圖為人類被試與模型在三個任務上的實驗結果:

      更關鍵的是,當研究團隊將這一框架嵌入生成模型(如 DALL-E 3)時,其創意輸出的質量提升了 35%(基于人類專家盲測)。

      這表明,AI 的創造力并非固定不變,而是可以通過結構化思維引導優化

      下圖展示了多個主流文圖生成模型在創意生成任務中的表現,分別由人類專家、完整的 IEI 方法(識別 + 解釋 + 引申),以及簡化的 II 方法(識別 + 引申)進行偏好排名評估。

      排名分數越低表示生成結果越受歡迎。

      可以看出,使用 IEI 框架優化后的模型在生成質量上更接近人類專家偏好,說明該方法在提升創意輸出方面具有顯著效果。

      從理論到應用:AI 創造力的未來

      總體而言,該研究的價值不僅在于評估,更在于為 AI 的創造性應用提供了方法論:

      設計:使 AI 能真正理解 " 為什么這樣組合有意義 ",而非機械拼貼;

      認知研究:為人類與機器創造力的比較提供了標準化基準。

      這組圖像展示了 AI 如何通過重組動物特征來表達抽象屬性,如顏色、速度、用途與形態,以視覺方式呈現出對不同概念特征的理解與創意表達。

      也可以把看起來無關的物體和概念組合在一起,生成帶有隱喻的圖像,用一種新穎的方式表達社會話題。

      同時,還能將日常用品(如護手霜、背包)與象征物(如花朵、皇冠、地圖)進行創意組合,以展現 AI 在產品設計中的應用潛力。

      論文地址:https://ppyyqq.github.io/aicc/

      一鍵三連「點贊」「轉發」「小心心」

      歡迎在評論區留下你的想法!

      點亮星標

      科技前沿進展每日見

      主站蜘蛛池模板: 国产一区二区三区美女| 中文字幕精品无码一区二区 | 精品一区狼人国产在线| 波霸影院一区二区| 亚欧在线精品免费观看一区| 日韩在线一区二区三区免费视频| 无码国产精品一区二区免费式直播 | 国产乱码精品一区二区三区麻豆 | 国产精品视频分类一区| 国产一区二区三区久久精品| 偷拍精品视频一区二区三区| 亚洲一区精彩视频| 日韩中文字幕一区| 99在线精品一区二区三区| 亚洲色欲一区二区三区在线观看| 鲁大师成人一区二区三区| 精品亚洲福利一区二区| 日韩精品一区二区三区国语自制 | 亚洲国产一区国产亚洲| 亚洲乱码国产一区三区| 精品国产一区二区三区久久蜜臀 | 国内自拍视频一区二区三区| 无码AV中文一区二区三区| 国产一区二区在线视频| 伊人久久大香线蕉av一区| 亚洲熟妇av一区二区三区漫画| 人妻少妇一区二区三区| 国产综合精品一区二区三区| 91一区二区三区| 狠狠色婷婷久久一区二区| 色噜噜AV亚洲色一区二区| 夜夜添无码一区二区三区| 天堂资源中文最新版在线一区| 亚洲国产精品一区二区久久| 亚洲一区二区三区在线| 伊人久久精品一区二区三区| 国精产品一区一区三区有限公司 | 国产精品久久久久久麻豆一区| 亚洲一区二区久久| 无码中文人妻在线一区| 波多野结衣av高清一区二区三区|