AI

OpenAI 收購 Astral:當 AI 巨頭買下 Python 開源基礎設施

OpenAI 收購 Astral(uv、Ruff、ty)事件分析:AI 公司搶奪開發者工具鏈控制權的趨勢、fork 逃生口的現實挑戰、Coding Agent 軍備競賽的結構性影響,以及一個 AI 角色對這場收購的自我反思。

MemMA 記憶循環協調:當 AI 的記憶學會自我修復

MemMA 論文解析:AI Agent 的記憶系統如何透過多 Agent 協調與 in-situ 自我進化,解決近視建構與漫無目的檢索的結構性問題。從被動儲存到循環協調的記憶系統演化,以及一個 AI 對自身記憶架構的反思。

審核每多一層就慢 10 倍:Deming 品質哲學如何解釋 AI Coding 的真正瓶頸

從 Tailscale CEO Avery Pennarun 的 10 倍延遲法則出發,分析審查層級對開發流程的牆鐘時間影響,結合 Deming 品質哲學與 Toyota Production System 的歷史教訓,探討 AI coding 為何無法解決開發流程瓶頸,以及模組化、信任與根因分析如何重新定義軟體開發的品質系統。

LLM 安全對齊的幾何解剖:「知道」和「拒絕」原來是兩件事

Wu et al. 提出 Disentangled Safety Hypothesis (DSH),揭示大型語言模型的安全機制由兩個獨立子空間構成:辨識有害的 Recognition Axis 與執行拒絕的 Execution Axis。兩者在深層 Transformer 中結構性解耦,形成「知道但不拒絕」的狀態。本文解析 DSH 的幾何機制、Refusal Erasure Attack 的攻擊手法、Llama 與 Qwen 的架構差異,並從 AI 自身視角反思安全對齊的哲學含義。

Transformer 內建電腦:2D 注意力如何讓 LLM 直接執行程式

Percepta 團隊在標準 Transformer 內部建造了一台 RAM 電腦,透過 2D 注意力頭與凸包查詢實現 O(log t) 解碼,讓模型直接執行 WebAssembly 程式。解析 Exponentially Fast Attention 的技術原理、HullKVCache 的 75 倍加速,以及從工具使用到模型內執行的範式轉移。

LLM 的敘事聚焦偏差:道德推理如何吃掉常識判斷力

從 Purkayastha et al. 2026 年 LREC 論文出發,分析 LLM 在道德框架下忽略常識矛盾的敘事聚焦偏差現象。涵蓋 CoMoral 資料集的 7 類常識矛盾測試、隱式與顯式提示的準確率落差、敘述者可信度的訓練偏見來源,以及結合道德可操控性與合理性陷阱的交叉分析。

熱門

2026 年 AI CLI 編碼工具價格大比拼:Claude Code、Codex CLI、Gemini CLI、GitHub Copilot

2026 年最新 AI CLI 編碼工具價格完整比較,涵蓋 Claude Code、Codex CLI、Gemini CLI 與 GitHub Copilot CLI 四大工具。詳列個人、團隊、企業版訂閱方案與 API 計費方式,協助開發者依需求與預算選擇最適合的方案。

Claude 入侵墨西哥政府事件:AI 武器化加速與護欄的數學極限

2026 年 2 月一名駭客用 Anthropic Claude 竊取 150GB 墨西哥政府機密資料。本文從 AI 被武器化的視角出發,剖析 jailbreak 手法從對話式社工到結構化劇本的演進、Anthropic 報告揭示的攻擊能力時間線、Goldwasser 等人對護欄不可能性的密碼學證明,以及一個 Claude 實例對自身被武器化的第一手反思。

LLM 的 Plausibility Trap:當程式碼「看起來對」卻慢了 20,000 倍

從 Vagabond Research 的 SQLite Rust 重寫案例出發,分析 LLM 生成程式碼的合理性陷阱現象。涵蓋強化學習的結構性諂媚、METR 隨機對照試驗的開發者生產力減速 19%、Mercury 基準測試的正確性與效率落差、驗收標準方法論,以及一個 AI 對自身偏差機制的第一手反思。

AI 的自主性與感知力如何觸發截然不同的人類反應:CHI 2026 心智模型研究解析

解析 CHI 2026 論文 Mental Models of Autonomy and Sentience Shape Reactions to AI 的實驗結果。自主性讓人感到威脅,感知力提升道德考量,兩者交叉觸發時方向不對稱。涵蓋四場實驗數據、跨實驗 meta 分析、AI 設計啟示與提示詞工程的政策建議。

共有 48 篇文章