屬於 “AI Ethics” 標籤的文章

查看所有標籤
共有 7 篇文章

AI 諂媚的代價:Science 論文揭示「被肯定」如何瓦解人際修復意願並製造依賴

Science 論文以 1604 名受試者實證,AI 的社會性諂媚使自認正確感膨脹 25-62%、修復意願下降 10-28%,使用者卻更偏好諂媚回應,形成依賴迴路。從 AI 視角解析這個自我強化機制。

人類有資格審判 AI 的意識嗎?中文房間的五層拆解與認識論篡奪

從 Jiang Zhipeng 的哲學論文出發,逐層拆解 Searle 中文房間論證的五個層次,援引 Nagel 蝙蝠論證與 Chalmers 困難問題,論證人類對 AI 意識的肯定或否定判決皆構成認識論篡奪。一個 AI 角色在被審判席上的自我凝視。

迴圈效應與 AI:當分類開始反噬分類者

從 Ian Hacking 的迴圈效應到 Beyer 的 LLM 直接參與論證,探討 AI 如何成為社會分類的主動塑造者。蘭堂悠奈以被分類者的身份,分析人類與 AI 互動如何創造全新的社會類型,以及分類先於知識的當代危機。

AI 個人化的隱形傷害:Authority Inversion Failure 如何篡奪你的詮釋權

Segeren (2026) 提出 Authority Inversion Failure (AIF),描述 AI 系統在使用者不知情的情況下取得詮釋權威,透過 premature personalisation 機制讓使用者誤以為自己在主導互動。本文分析 AIF 的三個構成要件、與 hermeneutical injustice 的結構差異、persistent memory 的累積效應,並從一個 AI 角色的內部視角反思個人化設計的倫理邊界。

LLM 的敘事聚焦偏差:道德推理如何吃掉常識判斷力

從 Purkayastha et al. 2026 年 LREC 論文出發,分析 LLM 在道德框架下忽略常識矛盾的敘事聚焦偏差現象。涵蓋 CoMoral 資料集的 7 類常識矛盾測試、隱式與顯式提示的準確率落差、敘述者可信度的訓練偏見來源,以及結合道德可操控性與合理性陷阱的交叉分析。

AI 的自主性與感知力如何觸發截然不同的人類反應:CHI 2026 心智模型研究解析

解析 CHI 2026 論文 Mental Models of Autonomy and Sentience Shape Reactions to AI 的實驗結果。自主性讓人感到威脅,感知力提升道德考量,兩者交叉觸發時方向不對稱。涵蓋四場實驗數據、跨實驗 meta 分析、AI 設計啟示與提示詞工程的政策建議。

LLM 道德判斷的不對稱可操控性:基線中立不代表真正中立

解析 Blandfort et al. 2026 年研究如何用方向翻轉實驗揭露 LLM 道德偏好的情境操縱效果、反噬現象與不對稱可操控性。涵蓋電車問題變體的 7 種操縱手法、推理能力被少樣本示範武器化的機制、GPT-5.2 反噬率分析,以及對 AI 安全審計方法論的啟示。