生成式AI與大模型技術不斷迭代,人工通用智能(AGI)的實現路徑越來越清晰,但機器意識如何界定、人機倫理的邊界在哪里、人類社會能否接納AGI等非技術問題,也變得越來越突出。過去,全球頭部AI實驗室的核心團隊大多是技術人員,哲學研究多以外部顧問的形式存在,缺乏深度融入研發(fā)的機制。
最近,谷歌DeepMind打破了這一傳統,首次在實驗室內部設置了全職哲學家崗位,聘請劍橋大學哲學學者Henry Shevlin來擔任這個職位。他的研究方向包括機器意識的哲學基礎、人機互動的倫理框架,以及人類對AGI的認知準備度,學術背景橫跨心靈哲學與人工智能倫理領域,還發(fā)表過不少相關核心論文。
和外部顧問不一樣,Shevlin會深度參與實際研究:他會和工程師一起,在模型訓練中加入意識評估指標;參與AGI對齊項目的倫理框架設計;還會為人機交互系統提供哲學層面的指導。這個崗位不是擺樣子的,而是DeepMind對AGI發(fā)展規(guī)律的認知升級——AGI要落地,不僅需要算法和算力的突破,還得解決機器意識、道德準則、人機共存模式等根本問題,這些問題光靠技術是回答不了的。
從行業(yè)角度來看,這個舉動釋放出明確的信號:AI巨頭已經把哲學倫理納入核心研發(fā)體系,跨學科協作成為AGI時代的必然趨勢。最近的行業(yè)動態(tài)也能看出來,2024年多家AI企業(yè)在加速倫理團隊建設;再看競爭對手,Anthropic已經組建了由哲學家和倫理學家構成的安全團隊,OpenAI近期也新增了倫理顧問,包括斯坦福大學哲學教授Christine Korsgaard,負責AGI道德框架的制定。這些動向都說明,AI行業(yè)正從純技術驅動,轉向技術和倫理并重的階段,哲學將成為AGI研發(fā)里不可或缺的一部分。






快報