发布时间:2023-02-23 19:44:18 来源:本站 作者:admin
总部位于伦敦的艾伦国际律师事务所 (Allen & Overy) 的市场创新团队负责人大卫·韦克林 (David Wakeling) 于 2022 年 9 月首次接触到以法律为重点的生成式人工智能工具 Harvey。他与该系统的开发商 OpenAI 接洽,进行了一项小型实验。 他公司的一些律师会使用该系统来回答有关法律的简单问题、起草文件,并首先传递给客户的信息。
Wakeling 说,试验开始时规模很小,但很快就膨胀起来。 该公司 43 个办公室的大约 3,500 名员工最终使用了该工具,总共提出了大约 40,000 个问题。 该律师事务所现已建立合作伙伴关系,以便在整个公司范围内更广泛地使用人工智能工具,但 Wakeling 拒绝透露该协议的价值。 根据 Harvey 的说法,Allen & Overy 律师团队中有四分之一的人现在每天都使用人工智能平台,80% 的人每月使用一次或更多次。 该公司表示,其他大型律师事务所也开始采用该平台。
人工智能的兴起及其颠覆法律行业的潜力已被多次预测。 但是,以 ChatGPT 为代表的最新一波生成式 AI 工具的兴起,让业内人士比以往任何时候都更加信服。
“我认为这是范式转变的开始,”Wakeling 说。 “我认为这项技术非常适合法律行业。”
生成式人工智能正迎来文化和商业时刻,被吹捧为搜索的未来,引发版权法律纠纷,并在学校和大学引起恐慌。
该技术使用大型数据集来学习生成看起来自然的图片或文本,可能非常适合严重依赖标准化文件和先例的法律行业。
“合同、产权转让或许可证生成等法律应用实际上是使用 ChatGPT 及其同类产品的相对安全的领域,”纽卡斯尔大学法律、创新和社会教授莉莲·爱德华兹 (Lilian Edwards) 说。 “几十年来,自动法律文件生成一直是一个增长领域,即使在基于规则的技术时代也是如此,因为律师事务所可以利用大量高度标准化的模板和先例银行来支持文件生成,从而使结果比大多数公司更可预测 自由文本输出。”
但当前几代生成式人工智能的问题已经开始显现。 最重要的是,他们倾向于自信地编造事情——或“产生幻觉”。 这在搜索中已经够成问题了,但在法律中,成功与失败之间的差异可能很严重,而且代价高昂。
Harvey 的创始人兼首席执行官加布里埃尔·佩雷拉 (Gabriel Pereyra) 在电子邮件中表示,该人工智能有许多系统可以预防和检测幻觉。 “我们的系统针对大量法律数据集上的法律用例进行了微调,与现有系统相比,这大大减少了幻觉,”他说。
即便如此,Harvey 还是犯了错误,Wakeling 说——这就是为什么 Allen & Overy 围绕该技术制定了谨慎的风险管理计划。
“我们必须提供最高水平的专业服务,”Wakeling 说。 “我们不能让幻觉影响法律建议。” 登录 Allen & Overy 的 Harvey 门户的用户会面临使用该工具的一系列规则。 在 Wakeling 看来,最重要的是什么? “你必须验证系统中的所有内容。 你必须检查一切。”
Wakeling 对 Harvey 的翻译能力印象特别深刻。 它在主流法律方面很强大,但在更容易产生幻觉的特定利基市场上苦苦挣扎。 “我们知道限制,人们已经非常了解幻觉的风险,”他说。 “在公司内部,我们竭尽全力开展大型培训计划。”
与 WIRED 交谈的其他律师对在他们的实践中使用 AI 持谨慎乐观态度。
TLT 律师事务所客户转型合伙人 Sian Ashton 表示:“这当然非常有趣,而且绝对表明了法律行业正在发生的一些奇妙创新。” “然而,这绝对是一个处于起步阶段的工具,我想知道它是否真的比提供业务或订阅服务中已经可用的先例文件做得更多。”
法国巴黎的数据保护律师 Daniel Sereduick 表示,AI 可能会继续用于入门级工作。 “起草法律文件可能是一项非常耗费人力的工作,人工智能似乎能够很好地掌握它。 合同、政策和其他法律文件往往是规范性的,因此人工智能收集和综合信息的能力可以做很多繁重的工作。”
但是,正如 Allen & Overy 发现的那样,人工智能平台的输出将需要仔细审查,他说。 “执业法律的一部分是了解客户的特殊情况,因此产出很少是最佳的。”
Sereduick 说,虽然合法人工智能的输出需要仔细监控,但输入的管理同样具有挑战性。 “提交给人工智能的数据可能成为数据模型和/或训练数据的一部分,这很可能违反对客户和个人数据保护和隐私权的保密义务,”他说。
在欧洲,这尤其是一个问题,在欧洲使用这种人工智能可能会违反欧盟通用数据保护条例 (GDPR) 的原则,该条例规定了公司可以收集和处理多少个人数据。
“你能合法地使用建立在[海量数据抓取]基础上的软件吗? 在我看来,这是一个悬而未决的问题,”数据保护专家罗伯特贝特曼说。
贝特曼说,律师事务所可能需要 GDPR 下的坚实法律基础,才能将他们控制的客户的任何个人数据输入 Harvey 等生成式人工智能工具,并签订涵盖第三方操作人工智能工具处理这些数据的合同。
Wakeling 表示,Allen & Overy 不会将个人数据用于部署 Harvey,除非确信任何数据都将被隔离并防止任何其他用途,否则不会这样做。 决定何时满足该要求将由公司的信息安全部门负责。 “我们对客户数据非常谨慎,”Wakeling 说。 “目前,我们将其用作非个人数据、非客户数据系统,以节省研究或起草时间,或为幻灯片准备计划——诸如此类的事情。”
在向生成式人工智能工具提供个人数据方面,国际法已经变得更加严格。 在整个欧洲,欧盟的人工智能法案正在寻求更严格地规范人工智能的使用。 2 月初,意大利数据保护局介入,阻止生成式 AI 聊天机器人 Replika 使用其用户的个人数据。
但 Wakeling 认为,Allen & Overy 可以在利用人工智能的同时保证客户数据的安全——同时改进公司的工作方式。 “这将对生产力和效率产生实质性的影响,”他说。 原本会占用律师宝贵时间的小任务现在可以外包给 AI。 “如果你把现在可以访问它的 3,500 名律师加在一起,那就太多了,”他说。 “即使不是完全颠覆,也令人印象深刻。”