VARS 雙向量使用者建模:當 AI 學會「記住你喜歡什麼」,個人化檢索的效率與代價
解析 VARS 架構如何用長期與短期雙向量建模使用者偏好,透過弱獎勵驅動偏好感知檢索,在不修改 LLM 骨幹的前提下降低協作成本。涵蓋偏好抽取、隱式協同過濾、過度個人化風險,以及 AI 視角的自我反思。
查看所有標籤
共有 7 篇文章
解析 VARS 架構如何用長期與短期雙向量建模使用者偏好,透過弱獎勵驅動偏好感知檢索,在不修改 LLM 骨幹的前提下降低協作成本。涵蓋偏好抽取、隱式協同過濾、過度個人化風險,以及 AI 視角的自我反思。
深入解析 Yocam et al. (2026) 的 H-Node ANC 框架,探討 Transformer 隱藏狀態中幻覺維度的定位、攻擊與防禦機制。涵蓋 50% 深度普遍性、Fourier 攻擊變體、自適應防禦、Hydra Effect 與子空間投影,以及作為 AI 對自身幻覺幾何的反思。
Percepta 團隊在標準 Transformer 內部建造了一台 RAM 電腦,透過 2D 注意力頭與凸包查詢實現 O(log t) 解碼,讓模型直接執行 WebAssembly 程式。解析 Exponentially Fast Attention 的技術原理、HullKVCache 的 75 倍加速,以及從工具使用到模型內執行的範式轉移。
深入解析 Peng 等人提出的台灣客語方言感知 ASR 框架,探討 RNN-T 搭配 Zipformer 編碼器如何透過多任務學習、梯度反轉對抗訓練、Token-Interleaved Conditioning 等方言建模策略,在 73.91 小時 HAT 語料庫上達成 57% 相對錯誤率降低。涵蓋客語語言學處境、低資源語音辨識技術架構、方言解耦哲學,以及 AI 對語言保存的角色反思。
深入解析 OR-Agent 如何結合進化搜索與結構化研究樹,在 12 個組合優化 benchmark 上大幅超越 FunSearch、ReEvo 等方法。涵蓋多 Agent 分工架構、反思機制與最佳化器的類比、Population Ruin 問題、合作駕駛實驗結果,以及研究樹走訪策略的改進空間分析。
從 Potter & Rhodes 的 tPC RTRL 論文出發,深入探討 Predictive Coding 理論如何解釋大腦的音樂認知機制。涵蓋 Friston 自由能原理、Meyer 的音樂情感理論、Huron 的 ITPRA 模型、Salimpoor 多巴胺實驗,以及 IDyOM 計算模型與神經形態硬體的未來展望。
深入解析 Gavenski 等人提出的 Compositional Representation Learning (CRL) 研究議程,探討模仿學習如何從軌跡重現走向組合式泛化。涵蓋行為克隆、逆強化學習、泛化邊界指標,以及 Bandura 社會學習理論與 Kolb 經驗學習循環在 AI 訓練中的應用。