menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

科技

《人類簡史》作者談關於AI的三個核心問題

鉅亨網新聞中心 2025-03-26 16:20

cover image of news article
《人類簡史》作者談關於AI的三個核心問題(圖:shutterstock)

據陸媒《財經》報導,英國劍橋大學特聘研究員、《人類簡史》作者赫拉利 (Yuval Noah Harari) 近日參加中國發展高層論壇 2025 年年會,並針對人工智慧發表了主題演講,提出了關於 AI 的三個核心問題:什麼是 AI?AI 的危險是什麼?人類在 AI 時代如何繁榮發展?

赫拉利強調,儘管當前對 AI 的討論甚囂塵上,但 AI 並不僅僅是自動化,更代表著一種主體性和主動性。他指出,「AI 並不是我們手裡的工具,AI 是一個智能體。要成為一個 AI,僅僅讓機器自動化還不夠,它還必須有能力去自己學習、自己改變、自己做出決定,而且還要發明新的想法。」


赫拉利以咖啡機為例進行了生動的解釋:如果咖啡機僅僅根據人類按下的按鈕自動準備咖啡,那並非 AI;但如果咖啡機能夠基於對人類的監控和了解,預估對方會想要一杯濃縮咖啡或美式咖啡,這才是真正的 AI,因為它展現了學習和創造新事物的能力。他進一步指出,從主體性的角度來看,AI 是一種異質的、非有机的智能体,其智能不同於人類甚至其他有機體的智能,能夠做出人類可能難以想像的決策和創造。

赫拉利認為,AI 在諸多方面都蘊藏著巨大的積極潛力,例如發明新藥、避免氣候變化帶來的災難性後果。然而,他也警示 AI 同時帶來了諸多挑戰和威脅。他強調,由於 AI 是一種異質性的智能體,因此其不可信和不可預測性是基本的問題。赫拉利提出了「信任的悖論」,指出人類相互信任尚且不易,卻傾向於相信或認為應該相信 AI。

在與 AI 行業領導者交流時,赫拉利經常提出兩個問題:在存在如此多風險的情況下,為何 AI 發展如此迅速?以及,可以相信他們正在開發的超級智能 AI 嗎?對於第一個問題,業內人士通常承認 AI 發展存在危險,但擔心若放慢腳步,競爭對手將會領先。

而對於第二個問題,他們的答案往往是不相信人類競爭者,但相信超級智能的 AI,這在赫拉利看來是一個明顯的悖論。他解釋說,人類擁有數千年的交往歷史,對人類的心理和生理有深入了解,也發展出了制約權力慾望的方式,並建立了信任網絡。儘管人類之間的信任問題尚未完全解決,但至少我們清楚挑戰所在。

與之形成鮮明對比的是,人類缺乏與人工智能打交道的經驗。赫拉利指出,現在人類已經發現 AI 會撒謊和出現偏差,這些都是事先難以預料的。儘管人類發明了 AI,並可以透過設計使其對人類安全,但由於 AI 能夠學習和自我改變,因此存在以不可預測的方式發展的可能性。

對於「人類如何在 AI 時代實現繁榮」,赫拉利的答案簡潔明瞭:人類團結一致就能控制 AI;如果人類相互爭鬥,AI 就會控制我們。因此,他強調在開發超級智能 AI 之前,應當在人類之間建立更多信任。然而,他遺憾地指出,當前人類之間的信任正在崩塌,許多國家傾向於孤立和不信任他人,但他認為徹底的分離和不合作是不可持續的。

赫拉利強調了人類共同遺產的重要性,並警告說,在 AI 時代,如果人類忘記共同的歷史,不信任他人,將會成為失控 AI 的獵物。他認為,人類之所以能夠控制地球,並非因為更聰明,而是因為更擅長與陌生人建立信任與合作,這種能力在 AI 時代將變得更加重要。他總結道,在 AI 時代生存和繁榮,相比信任 AI,我們更要信任人類。

除了赫拉利的觀點,其他與會專家也分享了他們對 AI 發展的看法。美國戰略與國際研究中心高級顧問甘思德表示,AI 可能徹底改變全球政治與經濟,其應用不僅限於 ChatGPT 或 DeepSeek 等工具,還將在工業、醫藥等領域帶來變革性的影響。

北京智源研究院創始人張宏江指出,隨著 OpenAI、DeepSeek 等大模型的出現,人類正處於「未來的黎明」,未來將是一個「自主智能的世界」,機器將具備自我思考、規劃和行動的能力。但他同時強調,AI 技術的快速發展將帶來社會組織和就業模式的巨大變化,人類必須從現在開始面對 AI 帶來的風險並採取行動。

貝恩公司全球董事會主席克里斯托夫 · 福瑟提出了負責任應用 AI 的五項原則,包括尊重人權和自主性、公平包容、透明可解釋、安全可靠以及人工監管和問責。多位企業負責人,如奔馳董事會主席康林松、寶馬集團董事長齊普策、小鵬汽車董事長兼首席執行官何小鵬以及施耐德電氣董事長趙國華等,也介紹了 AI 在汽車產業電動化、智能化和能源效率提升方面的關鍵作用。清華大學蘇世民學院院長薛瀾認為,AI 技術能夠突破學科界限,促進科技集成和機制創新。


Empty