公众担忧AI现实威胁而非“末日预言”
当科技领袖热议“AI灭绝论”时,普通民众真正担忧的却是更现实的生存挑战。瑞士苏黎世大学最新研究《AI风险的双重叙事》指出,公众对人工智能的偏见、虚假信息及失业等即时风险的关注度,远超对“人类灭绝”等远期威胁的焦虑。这项覆盖美英两国万余人的大型调研,为全球AI治理提供了关键认知坐标。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究团队将参与者分为三组进行对照实验:
“末日组” 阅读AI可能导致文明崩溃的长文,包含自主武器失控、超级智能反噬等场景;
现实组 聚焦当前AI引发的歧视性招聘、深度伪造诈骗、自动化裁员等案例;
利好组 接触AI医疗诊断突破、气候预测优化等积极叙事。
通过心理量表与焦点访谈,科学家试图验证一个关键假设:过度渲染远期威胁是否会削弱社会对现实问题的应对意愿?
颠覆性结论:危机就在眼前
结果显示,即便面对“AI灭绝人类”的骇人警告,72%参与者仍将算法偏见、信息污染、职业替代列为最高优先级风险。在风险感知评分中:
即时威胁(平均8.2/10):医疗AI种族歧视(8.5)、Deepfake干扰选举(8.3)、客服岗位消失(7.9)
远期威胁(平均5.1/10):超级智能失控(5.3)、纳米机器人生态灾难(4.8)
“这证明公众具有清醒的风险分层能力。”研究共同作者、政治学教授法布里齐奥・吉拉尔迪(Fabrizio Gilardi)向AIbase解释,“人们并非忽视长期风险,而是要求优先解决触手可及的危机。”
认知鸿沟:科技精英与大众的对话困境
该研究暴露出AI风险讨论中的结构性矛盾——当OpenAI创始人山姆・阿尔特曼(Sam Altman)等科技领袖在国会听证会上强调“人类灭绝”时,普通民众更担忧的却是:
招聘算法对女性简历的隐性过滤
TikTok推荐算法诱导青少年心理问题
客服机器人取代50万美国岗位
“我们不需要科幻级别的监管,而是能阻止AI把我的工资压到最低时薪的法律。”参与调研的亚马逊仓库工人马克斯・威尔逊(Max Wilson)在访谈中表示。
针对研究结果,吉拉尔迪与合著者艾玛・霍斯(Emma Hoes)提出“望远镜与显微镜”双轨策略:
显微镜行动:立即完善AI审计制度,强制企业公开算法偏见测试报告,设立深度伪造内容溯源系统;
望远镜计划:建立跨国AI安全观测站,开展超智能对齐技术的开源协作,但需与当前治理议题解耦。
“就像应对气候变化不能只谈‘碳减排’而忽视海平面上升,AI治理必须同时转动两个齿轮。”霍斯在报告发布会上强调。
该研究发布之际,正值欧盟《人工智能法案》实施关键阶段。数据显示,法案中关于“高风险AI系统”的监管条款公众支持率达89%,而“远期威胁研究基金”条款仅获47%认同。这或许暗示:政策制定者需要重新校准“未来恐慌”与“现实疼痛”的叙事比例。
正如斯坦福HAI研究所专家评论:“当打工人担忧AI抢走饭碗时,谈论‘人类物种存亡’更像是一种精英主义傲慢。真正的AI伦理,应该从保障每个普通人的尊严开始。”人类既害怕机器太“笨”(制造歧视与错误),又害怕机器太“聪明”(超越控制)。而在天平的两端,真正需要放上的砝码或许是:如何让技术创新与人类福祉实现同频共振。