警惕!加拿大教育报告惊现AI伪造参考文献:伦理与真实性何去何从?

1

一场关于人工智能应用伦理的严肃探讨,在加拿大纽芬兰与拉布拉多省近期发布的一份重要教育改革报告中,意外地被一份讽刺性的发现所颠覆。这份名为《未来愿景:教育转型与现代化》的418页报告,本应成为该省未来十年公立学校和高等教育机构发展的蓝图,然而,专家们却在该文件中发现了至少15处疑似由人工智能语言模型生成的虚假参考文献。令人啼笑皆非的是,这份报告本身还特别呼吁学校应"伦理化使用AI"。

这份历时18个月完成的报告于8月28日发布,由纪念大学教育学院的两位教授安妮·伯克和卡伦·古德诺担任联席主席,并与教育部长伯纳德·戴维斯共同揭幕。其核心目标在于指引教育体系的现代化进程。然而,一些眼尖的学者,包括纪念大学助理教授亚伦·塔克,在查阅报告中引用的文献时发现诸多疑点。塔克教授的研究方向正是加拿大的人工智能历史,他表示在大学图书馆、其他学术数据库甚至谷歌上都未能找到报告中提及的许多来源。他向CBC新闻指出,"伪造来源至少提出了一个问题:这是否源自生成式AI?"尽管他无法给出肯定答复,但他强调,"无论是AI还是其他原因,伪造来源是人工智能的典型特征。"

报告中一个最为明显的虚假引用,指向了一部据称是2008年加拿大国家电影局出品、名为《校园游戏》的电影。然而,电影局的发言人明确表示,这部电影根本不存在。更令人震惊的是,这段精确的引文竟然出现在维多利亚大学的一份样式指南中。这份指南的首页清晰注明"本指南中的许多引文均为虚构",旨在作为格式化引用的示例。这意味着,要么有人(要么是某个AI聊天机器人)直接将这些虚构示例复制粘贴到了教育报告中,并将其当作真实来源。

Rose Blanche Lighthouse in Channel-Port Aux Basques Newfoundland Canada

自人工智能语言模型问世以来,生成虚假引文一直是一个持续存在且难以解决的问题。这种"一本正经地胡说八道"的倾向,在学术和法律等对准确性要求极高的情境中尤其危险。原因在于,这些伪造的来源往往格式规范、语境恰当,很容易蒙蔽粗心的审查者。AI语言模型,如ChatGPT、Gemini和Claude等,擅长产生这种看似可信的虚构内容,因为它们的首要任务是生成"貌似合理"的输出,而非"准确"的输出。它们只是根据训练数据中学习到的模式进行统计近似生成。当这些模式未能与现实完全对齐时,结果便是听起来自信满满的错误信息。即使是那些能够联网搜索真实来源的AI模型,也可能制造虚假引文、选择错误的来源或错误地描述其内容。

纪念大学教职员工协会前主席乔什·莱帕斯基,因对报告流程"深感不满"而于一月份辞去了报告顾问委员会的职务。他向CBC新闻表示,"错误是会发生的。但伪造引文是完全不同的事情,这从根本上摧毁了材料的可靠性。"这一事件的讽刺性在于,报告中110条建议之一,正是要求省政府"向学习者和教育工作者提供必要的AI知识,包括伦理、数据隐私和负责任的技术使用。"这无疑为整个事件增添了一层深刻的自省意味。

另一位发现多处虚假引文的纪念大学政治学教授莎拉·马丁,在审查该文件时花费了数天时间。她向CBC新闻表示,"对于那些我找不到的参考文献,我想不出其他解释。"她补充道,"你会觉得,'这肯定是真的,不可能是假的。'这是一份对教育政策至关重要的文件中出现的引文。"当CBC联系到报告联席主席卡伦·古德诺时,她拒绝了采访请求,并在邮件中回应道:"我们正在调查并核查参考文献,因此目前无法对此作出回应。"教育和早期儿童发展部的发言人林恩·罗宾逊也向CBC发表声明,承认"引文中存在少数潜在错误",并表示"我们理解这些问题正在得到解决,在线报告将在未来几天内更新,以纠正任何错误。"

Rose Blanche Lighthouse in Channel-Port Aux Basques Newfoundland Canada

这一事件无疑为我们敲响了警钟。在人工智能技术日益融入日常生活和专业领域的今天,对其生成内容的真实性进行严格审查变得前所未有的重要。尤其是在教育、科研、法律等对信息准确性要求极高的领域,简单地依赖AI输出而不加核实,可能导致灾难性的后果。我们必须认识到,AI工具是强大的辅助手段,但它们并非无懈可击。其核心逻辑是模式匹配和概率生成,而非对事实的绝对理解和验证。因此,人类的批判性思维、专业判断和严谨的核实流程,在AI时代显得愈发不可或缺。

面对未来,教育体系不仅要教授学生如何"使用"AI,更要教会他们如何"审视"AI,理解其局限性,并培养对信息来源的辨别能力。政策制定者在采纳AI辅助生成的内容时,也应建立更严格的审查机制和问责制度,确保所发布信息的权威性和准确性。同时,AI开发者也应持续致力于提升模型的"事实感知"能力,减少"幻觉"现象,并提供更透明的溯源机制。只有这样,我们才能真正实现AI与人类智能的协同发展,而非被其潜在的缺陷所误导,确保技术进步在伦理和真实的轨道上稳步前行。这场加拿大教育报告的"乌龙"事件,正是对全社会的一次深刻警示。