法律人的失业阴影?ChatGPT已被法官应用于庭审
【导读】胡安·曼努埃尔·帕迪拉(Juan Manuel Padilla)法官在审理保险是否应覆盖自闭症儿童治疗费用的纠纷时,询问了AI一些法律问题,将AI的答复与自己对先例的理解一同作为审判的依据。
近日,哥伦比亚的一位法官掀起了一场舆论风波,起因是他承认自己在审理一起案件时使用了AI作为辅助,该案件涉及一家健康保险公司是否应支付自闭症儿童的全部医疗费用的纠纷。与此同时法官也援引了先例支持自己的判决。
AI审判事件的主人公胡安·曼努埃尔·帕迪拉(Juan Manuel Padilla)法官,任职于加勒比海南端的卡塔赫纳市。他最终作出的判决是,考虑到孩子的父母经济困难的事实,孩子的医疗和交通费用都应该由保险公司全额支付。
判决结果本身并没有引发太多质疑。帕迪拉法官在庭审中和ChatGPT对话,而ChatGPT的回答成为判决的一部分,这才是争议的焦点。
ChatGPT的屏显
法庭文件显示,帕迪拉法官对AI的提问包含本案中非常具体的法律问题,例如“未成年自闭症患者是否可以不担负自己的医疗费用”。ChatGPT对此的回答是:“是的,根据哥伦比亚的相关法律,被诊断为自闭症的未成年患者,接受治疗无需自费。”法官的最终判决和ChatGPT给出的回答倾向一致。
此案的审理过程引发了对AI应用于司法的讨论,部分同行对帕迪拉法官的做法提出批评。
ChatGPT能够检索并筛选互联网中浩如烟海的文本,并据此对提问作出基于海量背景信息的回复,但对于同个问题可能作出不同的回答。甚至ChatGPT有时还会捏造信息,输出富有创造力且蒙蔽性极强的不实文本。
这一新兴的平台在短短几周之内已引起人们的警觉。在教育领域,教师们十分担心开放的AI平台会被学生不当利用,使学术剽窃的现象泛滥成灾。
帕迪拉法官坚称自己对技术的利用是合理的,这有利于提高哥伦比亚臃肿的司法系统的运行效率。此外,法官仍然援引了先例支持最终的审判,这意味着他没有完全抛却惯常做法而完全依赖于AI。
帕迪拉法官周二接受蓝光电台(Blu Radio)的采访时表示,ChatGPT和其他AI平台对“降低法律文书的写作难度”大有裨益,且并非“以替代法律工作者为最终目的”。此外,他还强调,“对AI提问,并不意味着我们停止履行作为法官的职责、不再思考人的存在本身”。他认为ChatGPT在庭审中的提供的服务更像是秘书工作,ChatGPT“以简洁、组织化、结构化的方式运作”有利于司法系统“缩短作出回应所需的时间”。
罗萨里奥大学的胡安·大卫·古特雷斯(Juan David Gutierrez)教授,对帕迪拉法官的做法和观点持反对立场,他呼吁尽快对法官开展“数字知识普及”(digital literacy)教育。
哥伦比亚于2022年通过的一部法案规定,公职律师在条件允许的情况下应合理利用技术手段,以提高工作效率。
哥伦比亚最高法院的奥克塔维奥·特耶罗(Octavio Tejeiro)法官指出,AI引发的道德恐慌,主要是源于人们对机器人替代法官的担忧。但他预计AI工具在司法工作的运用,可能很快会被公众接受并司空见惯。
“司法系统应最大化利用科技作为工具,但时刻要守住伦理底线,并确保作出最终判决的永远是人类,”特耶罗说。“AI只能是服务于法官提升办案效率的工具。我们决不允许工具僭越人类。”他对卫报记者表示,他尚未在审判中应用ChatGPT,但已有使用的意愿。
相比于一些法官的看法,聊天机器人在司法系统的角色定位是本质上更具争议性的。
卫报记者向ChatGPT提问,其如何看待自身在司法系统中的定位,它回答说:“法官们不应该在案件审理过程中使用ChatGPT。它无法代替人类法官的知识、经验和裁决。”
“记者在文章中使用ChatGPT提供的可引用文本时,也要注意审核,”随后,机器人还这样“善意”提醒发问的记者。