近期由Edelman公关公司和Pew Research发布的多项调查显示,美国及西方国家民众对人工智能的信任度令人担忧。尽管AI领域内部对技术带来的巨大效益充满乐观态度,但我们必须认真对待这一现象,而非简单忽视。公众对AI的担忧可能成为技术进步的重大阻力,而我们有许多工作可以做来应对这些问题。
全球AI信任度差异显著
根据Edelman的调查数据,在美国有49%的人拒绝AI的广泛应用,仅有17%的人拥抱这项技术。相比之下,在中国,拒绝AI的比例仅为10%,而接受度高达54%。Pew Research的数据也显示,许多其他国家对AI的采用热情远超美国。

这种对AI的积极态度被视为一个国家的巨大优势。广泛的AI不信任意味着以下问题:
- 个人采用缓慢:Edelman的数据显示,在美国,很少使用AI的人群中,70%的人表示信任问题是主要障碍,而缺乏动机或访问权限(55%)和技术恐惧(12%)的比例相对较低。
- 有价值的项目受阻:例如,印第安纳州当地居民抗议导致谷歌放弃在该地区建设数据中心的计划。阻碍数据中心建设将损害AI的发展。社区对数据中心确实存在超越对AI普遍不信任的担忧;我将在后续信件中讨论这一点。
- 民粹主义情绪增加AI风险:对AI的民粹主义愤怒增加了通过可能阻碍AI发展的法律的风险。
信任缺失的多重影响
AI信任危机的影响远超表面现象。从个人层面看,当人们不信任AI时,他们不仅拒绝使用,还会抵制相关工作流程的自动化,这直接影响了AI技术的实际落地效果。从社会层面看,缺乏信任意味着AI驱动的公共项目难以获得支持,从智慧城市到医疗诊断系统,都可能因公众抵制而搁浅。
更令人担忧的是,这种不信任正在转化为政策阻力。当公众对AI持怀疑态度时,政策制定者往往会采取更严格的监管措施,即使这些措施可能阻碍创新。我们看到,一些国家已经开始实施针对AI的严格审查机制,而这些措施往往源于公众对技术的不信任而非基于科学评估。
AI社区的自我伤害
我们必须明确,所有从事AI工作的人都应仔细审视AI的利弊,如实讨论其潜在益处和危害,同时努力减轻问题,扩大益处。然而,关于AI危险性的炒作已经对我们领域的信任造成了真实伤害。这种炒作很大程度上来自领先的AI公司,它们通过将技术比作核武器等方式,试图使自己的技术显得异常强大。
不幸的是,相当一部分公众认真对待这种言论,认为AI可能导致世界末日。AI社区必须停止这种自我伤害,努力赢回社会的信任。
建立信任的路径
1. 确保AI广泛惠及所有人
要赢得人们的信任,我们还有大量工作要做,确保AI能够广泛惠及每个人。"提高生产力"通常被普通观众理解为"我的老板会赚更多钱",或者更糟的是裁员。尽管ChatGPT令人惊叹,但我们仍需努力构建对人们生活产生更大积极影响的应用程序。
我相信,为人们提供培训将是解决这一难题的关键部分。DeepLearning.AI将继续引领AI培训工作,但我们需要做的远不止于此。
2. 值得信任的实际行动
我们必须真正值得信任。这意味着我们每个人都必须避免夸大其词或散布恐慌言论,尽管有时为了宣传或游说政府通过阻碍竞争产品(如开源)的法律而受到诱惑。
3. 批判性看待媒体炒作
我希望我们的社区也能指出那些传播炒作的媒体报道。例如,Nirit Weiss-Blatt撰写了一篇出色的文章,批评《60分钟》对Anthropic研究的报道极具误导性。该研究中,Claude在被威胁关闭后诉诸"敲诈",但这实际上是一项红队测试,研究人员经过大量努力才将AI系统逼入角落,使其表现出"敲诈"行为。
不幸的是,新闻报道扭曲了这一点,导致许多人认为"敲诈"行为是自然发生的,而不仅仅是因为熟练的研究人员故意设计使其发生。这些报道给许多人留下了AI实际"策划"频率的极度夸张印象。红队测试对于测试系统漏洞很重要,但这种被广泛传播的炒作将对AI造成长期伤害。
超出硅谷视角
生活在硅谷,我意识到自己生活在一个AI爱好者的泡沫中,这对交流想法和互相鼓励构建很有帮助!同时,我认识到AI确实存在问题,AI社区需要解决这些问题。我经常与来自不同生活背景的人交谈。
- 我与艺术家交谈,他们担心AI会贬值他们的作品
- 我与大学高年级学生交谈,他们担心严峻的就业市场以及AI是否正在加剧他们的挑战
- 我与父母交谈,他们担心孩子沉迷于聊天机器人并从中获取有害建议
集体行动的必要性
我不知道如何解决所有这些问题,但我将努力解决尽可能多的问题。也希望你能这样做。只有通过我们所有人共同努力,我们才能赢回社会的信任。
数据驱动的信任重建
要重建信任,我们需要更多基于数据的对话,而非基于恐惧的叙事。AI社区应主动发布透明的研究报告,展示AI系统的实际能力和局限性。同时,我们需要开发更好的评估框架,使公众能够理解AI的真正风险和机遇。
教育也是重建信任的关键。通过普及AI基础知识,帮助公众区分现实威胁与虚构恐慌,我们可以创造一个更加理性的讨论环境。学校、社区中心和在线平台都可以成为这一教育努力的载体。
结语
AI信任危机不是技术问题,而是社会问题。解决它需要AI社区与公众之间的真诚对话,需要我们承认技术的局限性,也需要我们展示其真实价值。只有通过这种开放和诚实的方法,我们才能建立一个AI与人类和谐共存的未来。











