在一份长篇法庭意见的注脚中,一名美国联邦法官近期严厉批评移民局探员使用人工智能(Artificial
Intelligence)撰写武力使用报告。法官指出,这种做法可能助长不准确性,并进一步侵蚀公众对执法部门在芝加哥(Chicago)地区处理移民镇压及后续抗议活动的信心。
美国地方法院法官萨拉·埃利斯(Sara
Ellis)在上周发布的长达223页的意见书中强调,使用ChatGPT来撰写这些报告,不仅损害了探员的可信度,而且“可能解释了这些报告为何不准确”。她详细描述,在至少一段随身摄录机的影片中,观察到一名探员在向程式提供一个简短的描述性句子和几张图片后,指示ChatGPT为报告编写一份叙述。法官同时也指出了官方执法记录与随身摄录机影片所揭示的事实之间存在差异。
AI报告引发的准确性危机
专家们认为,在没有融入警员实际经验的情况下,单纯依赖其特定视角来利用人工智能起草报告,构成了对该技术最糟糕的应用,并引发了对准确性和隐私的严重关切。全国各地的执法机构一直在努力制定指导方针,以便在允许警员使用日益普及的人工智能技术的同时,维持准确性、隐私和专业性。专家表示,法庭意见中描述的案例未能应对这一挑战。
南卡罗来纳大学(University of South Carolina)犯罪学助理教授伊恩·亚当斯(Ian
Adams)表示:“这个家伙所做的,是所有可能情况中最糟糕的。如果他真的只给了一句话和几张图片,那这就违背了我们所有的建议。这是一个噩梦般的场景。”亚当斯同时在无党派智库刑事司法委员会(Council
for Criminal
Justice)的人工智能专责小组任职。法院在审议使用武力是否合理时,已确立了所谓的“客观合理性”标准,该标准在很大程度上依赖于特定警员在特定情境下的视角。亚当斯补充说:“我们需要该事件的具体陈述和该警员的具体想法,才能判断这是否是合理使用武力。”
隐私泄露与证据污染风险
除了担心人工智能生成的报告会不准确地描述事件外,使用人工智能还引发了潜在的隐私问题。纽约大学法学院(NYU School of
Law)警务项目(Policing Project)的幕僚长兼技术政策顾问凯蒂·金赛(Katie
Kinsey)指出,如果涉事探员使用的是公开版本的ChatGPT,他可能没有意识到,在上传图片的那一刻,他就失去了对这些图像的控制权,使其可能成为公共领域的一部分,并被不法分子利用。
金赛表示,从技术角度来看,大多数部门在人工智能应用方面都是“边飞边造飞机”。她说,执法部门的常见模式是等到新技术已被使用,甚至在某些情况下犯了错误之后,才开始讨论制定指导方针或政策。与此同时,一些专家对警员用来生成叙述的照片也表示了准确性的担忧。乔治华盛顿大学法学院(George
Washington University Law School)的法学教授安德鲁·格思里·弗格森(Andrew Guthrie
Ferguson)表示:“你问任何一位人工智能专家,他们都会告诉你,不同的AI应用程序对提示的回应结果大相径庭,而视觉元素的加入会让情况变得更加复杂。这也关乎专业性问题,我们不希望法庭上出现的是模型认为应该发生的事,而不是实际发生的事。”