win10软件园

达特茅斯学院新研发的AI工具具备伪装成人类完成问卷的能力,能破解99.8%的相关检测

发布时间:2026-01-15 作者:admin

11月24日消息,据404 Media报道,达特茅斯学院政府学副教授、极化研究实验室负责人肖恩・韦斯特伍德近期在《美国国家科学院院刊》(PNAS)发表的一项新研究表明,在线调查研究作为众多科学研究数据收集的基础手段,正遭遇大语言模型带来的严峻挑战。

韦斯特伍德研发出一款称作“自主合成应答者”的AI工具,该工具可对调查问题进行作答,并且展现出近乎完美地规避当前最先进机器人检测手段的本领。

论文表明,这款AI智能体在规避检测方面的成功率达到了99.8%之高。韦斯特伍德在新闻发布稿中称:“我们没办法再确定调查反馈是由真实人类给出的了。被机器人污染的数据或许会对整个知识体系造成破坏。”

这款AI智能体还顺利解决了“反向禁忌”难题。“反向禁忌”是指通过设计特定任务来辨别非人类行为主体,这类任务大模型可以轻松应对,而人类却几乎无法完成。

论文《大语言模型对在线调查研究的潜在生存威胁》提到:当推理引擎确定回答内容后,第一层会启动专门模仿人类的对应操作。为了规避自动化检测,它会模拟与目标个体教育程度匹配的阅读时长,生成贴近人类的鼠标移动轨迹,以逐字输入的方式填写开放式问题答案,其中还会包含自然的打字错误与修正痕迹。此外,该系统配备了可绕过reCAPTCHA等反机器人机制的工具,这类机制原本是自动化系统难以突破的阻碍。

论文还指出,AI 能够模拟“完整的人口统计特征”,这意味着从理论层面而言,任何人都可借助生成具备特定人口特征的 AI 干预手段,对在线调查的结果进行操控,并且哪怕只是少量虚假回答,也足以对调查结果产生影响。

论文提到,在 2024 年大选前的七大主要民意调查中,仅需加入 10 到 52 个虚假 AI 回答,就足以改变预测结果。这些虚假回答的生成成本非常低,每个仅需五美分,而人类受访者通常获得 1.50 美元(IT之家注:现汇率约合 10.7 元人民币)的酬劳。

论文在测试过程中采用了OpenAI的o4-mini模型,同时也运用了DeepSeek R1、Mistral Large、Claude 3.7 Sonnet、Grok3、Gemini 2.5 Preview等其他模型,以此验证该方法能够适配不同的大模型。该智能体借助接收大约500字的提示来掌握需要模仿的个性特点,并以符合人类思维与表达习惯的方式对问题作出回应。

论文表明,研究人员能够借助多种途径来应对AI智能体污染调查数据这一威胁,不过每种途径都存在利弊权衡。举例而言,研究人员可以对调查参与者实施更多的身份验证措施,然而这会引发相应的隐私方面的问题。论文同时提出建议,研究人员应当更具透明度地阐述调查数据的收集办法,并且考虑运用更受管控的参与者招募手段,比如基于地址的抽样方式或者选民文件。

论文总结指出,为保障民意调查与社会科学研究的持续有效性,需积极探索并创新研究设计,以应对AI时代快速发展带来的挑战。

复制本文链接 攻略文章为win10软件园所有,未经允许不得转载。
同类推荐
查看更多 →
攻略资讯
查看更多 →
猜你可能喜欢的
查看更多 →