人工智能与政策制定的结合有时会产生意想不到的后果,最近在阿拉斯加就出现了这样的情况。
在一个不寻常的事件中,阿拉斯加立法者据报道使用了不准确的人工智能生成的引用来为一项提议的禁止学校使用手机的政策辩护。根据《阿拉斯加灯塔报》的报道,阿拉斯加教育与早期发展部(DEED)提交了一份政策草案,其中包含根本不存在的学术研究的引用。
这一情况的出现是因为阿拉斯加教育专员迪娜·比肖(Deena Bishop)使用生成性人工智能起草手机政策。AI生成的文件中包含了所谓的学术引用,这些引用既未经验证也不准确,但文件并未披露在准备过程中使用了人工智能。一些AI生成的内容在审查之前就达到了阿拉斯加州教育与早期发展委员会,可能影响了委员会的讨论。
比肖专员后来声称,人工智能仅用于“创建引用”以供初步草案使用,并表示她在会议之前通过向委员会成员发送更新的引用来纠正错误。然而,AI“幻觉”——在人工智能试图创建看似合理但未经验证的内容时生成的虚假信息——仍然存在于委员会投票的最终文件中。
最终决议在DEED的网站上发布,指示该部门建立一项关于学校手机限制的模型政策。不幸的是,该文件包含六个引用,其中四个似乎来自受尊敬的科学期刊。然而,这些引用完全是虚构的,URL指向无关的内容。这一事件显示了在没有适当人类验证的情况下使用AI生成数据的风险,尤其是在做出政策裁决时。
阿拉斯加的案例并非个例。AI幻觉在各种专业领域中越来越常见。例如,一些法律专业人士因在法庭上使用AI生成的虚构案例引用而面临后果。同样,使用AI创建的学术论文中也包含了扭曲的数据和虚假的来源,提出了严重的可信度问题。当不加以控制时,生成性AI算法——旨在根据模式而非事实准确性生成内容——很容易产生误导性的引用。
在政策制定中,特别是在教育领域,依赖AI生成的数据带来了重大风险。当政策基于虚构的信息制定时,可能会错误分配资源,并可能对学生造成伤害。例如,基于虚构数据限制手机使用的政策可能会转移对更有效的、基于证据的干预措施的关注,而这些措施可能真正惠及学生。
此外,使用未经验证的AI数据可能会侵蚀公众对政策制定过程和AI技术本身的信任。这类事件强调了在敏感决策领域使用AI时,进行事实核查、保持透明和谨慎的重要性,尤其是在教育领域,对学生的影响可能是深远的。
阿拉斯加官员试图淡化这一情况,称这些虚构的引用是“占位符”,旨在稍后进行更正。然而,包含“占位符”的文件仍然提交给了委员会,并作为投票的基础,这突显了在使用AI时需要严格监督。
(照片由 Hartono Creative Studio 提供)
想了解更多关于行业领袖的AI和大数据的信息吗? 请查看 AI & 大数据博览会,该博览会将在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他领先活动共同举办,包括智能自动化会议、区块链博览会、数字化转型周和网络安全与云博览会。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会这里。