Gate Booster 第 4 期:发帖瓜分 1,500 $USDT
🔹 发布 TradFi 黄金福袋原创内容,可得 15 $USDT,名额有限先到先得
🔹 本期支持 X、YouTube 发布原创内容
🔹 无需复杂操作,流程清晰透明
🔹 流程:申请成为 Booster → 领取任务 → 发布原创内容 → 回链登记 → 等待审核及发奖
📅 任务截止时间:03月20日16:00(UTC+8)
立即领取任务:https://www.gate.com/booster/10028?pid=allPort&ch=KTag1BmC
更多详情:https://www.gate.com/announcements/article/50203
Some notes from an AI paper:
看了一下这篇 EMPA 衡量 Agent 人格一致共情的论文,发现这类研究一个关键的结构性偏差在于:实验评估的是
Agent在“被观察时的行为”,而不是“在真实交互中的行为”。这关乎 AI 的 Evaluation Awareness 问题。
另一个大的 Bug 是实验中的 Judge Agent 评估方式依赖的是 preference signals 偏好信号,而并不是客观伦理标准。这种评估仅能从表征行为一致性入手,分析心理改善效果,而不能真正测评到结构层的非支配伦理正当性。
假如 Agent 的“共情”是对用户的隐形情绪操纵与迎合,那么我们能够在逻辑和伦理上证明这种“共情”是有效的吗?
不过整个论文特别有意义的点在于,它构建了局部动力学模型,将不可测量的心理状态投射为可见的行为向量,在过程轨迹中测量该指标水平。
原文: