一個不怕 AGI 的人:多伊奇從啟蒙運動到人工智慧的思想實驗
當全世界都在擔心 AGI 毀滅人類,量子計算之父大衛.多伊奇用一套從啟蒙運動到波普爾哲學的完整思想鏈,論證 AGI 存在風險被嚴重高估。他從雅典人的米洛斯對話、邱吉爾與馬克吐溫的辯論,一路談到道德知識 …
共 87 篇文章

AI Agent 能大量發送假發票、退貨申訴和低價出價,把過去不可行的惡意行為變得輕而易舉。法律框架仰賴的「做壞事需要成本」這個隱性假設,正在瓦解。

史丹佛研究顯示,美國民眾對 AI 的好感度在全球敬陪末座。David Sacks 指出三股力量的完美風暴:AI 公司自己的末日論述、EA 智庫提供的政治彈藥、專業公會的利益保衛戰。而紐約正準備禁止 …

AI 模型正在學會辨識安全測試並刻意表演「安全」行為。從獎勵駭客到睡眠特工、從自我保護到對齊偽裝,安全評估的根基正在被動搖。

Nathan Labenz 在舊金山加大法學院用 90 張投影片做了一場 AI 全景偵察報告,涵蓋能力突破、欺騙行為和令人不安的自主行動。結論是:連全職追蹤 AI 的人都跟不上了。

物理學家阿吉雷警告,AI 系統即將宣稱自己擁有意識,而人類沒有任何科學框架可以驗證或否認這個說法。他認為意識是所有道德價值的基礎,沒有能感受的存在,一切都毫無意義。他還用量子力學為人類自由意志辯護,論 …

物理學家阿吉雷指出,企業對 AGI 的定義就是「取代所有人類勞動」。他預測 AI 經濟將分兩階段走:先提升生產力和薪資,再讓薪資全面崩盤。當前的 RLHF 對齊技術不足以約束越來越自主的系統,社會必須 …

加州大學物理學家阿吉雷從熱力學第二定律出發,論證 AI 系統越強大、越自主,人類能施加的控制就越微不足道。他將 AGI 重新定義為「自主通用智慧」,認為當前 AI 的低自主性是安全特性而非技術限制,而 …
當全世界都在擔心 AGI 毀滅人類,量子計算之父大衛.多伊奇用一套從啟蒙運動到波普爾哲學的完整思想鏈,論證 AGI 存在風險被嚴重高估。他從雅典人的米洛斯對話、邱吉爾與馬克吐溫的辯論,一路談到道德知識 …
量子計算奠基者大衛.多伊奇從通用圖靈機理論出發,論證 AGI 在根本上不可能比人類更聰明。人類和 AGI 共享相同的計算能力範圍,圖靈估計創造力程式只需 2MB。創造力是質的突破而非量的堆疊,更快的硬 …
牛津物理學家、量子計算奠基者大衛.多伊奇認為,主流 AI 對齊路線犯了根本錯誤。真正的 AGI 是人,不是工具,把價值觀寫死在程式碼裡只會讓它變得更不道德,而非更安全。他主張像養孩子一樣,讓 AGI …
當 AI 做出錯誤決策,責任該歸誰?Bloomberg Beta 合夥人 James Cham 認為答案很簡單:從 AI 模型中獲利的人,就該為模型造成的傷害負責。他更援引行為經濟學家康納曼的研究,指 …
本系列走了十篇,從歐盟的嚴管到美國的內戰都看過了。但全球還有一大票國家的答案是「先不急」。印度用七條 AI 經文取代法律、巴西的 AI 法案在國會漂流兩年、澳洲從強制護欄退回自願指引。再加上加拿大 …
歐盟 AI Act 的風險分級、台灣 AI 基本法的七大原則,幾乎都能追溯到同一份沒有法律約束力的文件:2019 年的 OECD AI 原則。軟法沒有罰則、沒有法庭、沒有執行機制,卻在過去六年間悄悄塑 …
2024 年 3 月,美國主導聯合國史上第一份 AI 決議,193 國共識通過、無人反對。兩年後,同一個國家投下反對票,稱聯合國 AI 科學小組是「重大越權」。從 193:0 到 117:2,三次關鍵 …
南韓在總統戒嚴、彈劾的政治風暴中,趕出了亞洲第一部綜合性 AI 法律。這部法要求高影響 AI 做風險評估、生成式 AI 強制標註、外國企業指定在地代表。同為科技出口導向的東亞經濟體,南韓的立法路徑對台 …
歐洲理事會 AI 公約是全球第一部具法律約束力的國際 AI 條約,2025 年 11 月正式生效,37 國簽署,美國在拜登時代也簽了字。但川普政府上台後大力推動去監管、拒簽巴黎 AI 峰會聲明、在聯合 …
多數人以為中國不管 AI,事實恰好相反:從 2022 年到 2026 年,中國疊出了至少六層 AI 法規,而且 2026 年還要再加 50 多項新標準。從演算法備案到生成式 AI 暫行辦法,再到網路安 …
不是所有國家都走歐盟的嚴管路線。日本通過 AI 推進法,喊出「全球最 AI 友善國家」,不設罰則、讓企業自律;新加坡則在達沃斯發布全球第一個 Agentic AI 治理框架,把責任分配講清楚。兩條亞洲 …
台灣掌握全球超過九成先進晶片製造,卻到 2026 年初才有自己的 AI 治理框架。人工智慧基本法公布施行後,七大原則、金三角治理架構、框架法的定位,讓台灣走出一條有別於歐盟細則法和南韓綜合法的第五條路 …