Debevoise数据博客

上个月,我们写过有多少公司可能需要生成式人工智能工具的政策就像ChatGPT吟游诗人克劳德e(我们统称为“ChatGPT”)。我们讨论了员工如何在工作中使用ChatGPT(例如,事实检查、初稿、编辑文档、产生想法和编码),以及允许公司所有员工不受任何限制地使用ChatGPT的各种风险(例如,质量控制、合同、隐私、消费者保护、知识产权和供应商管理风险)。然后,我们为公司提供了一些降低这些风险的方法建议,包括制定ChatGPT策略,将ChatGPT用例分为三类:(1)被禁止的使用;(2)允许使用但有一定限制的用途,如标识、培训、监控等;(三)一般允许而不受任何限制的用途。

从那时起,情况变得越来越清楚,许多公司还没有准备好实现正式的ChatGPT策略,因为(1)他们还没有充分评估哪些用例应该被允许,哪些不应该被允许(如果允许,应该应用什么限制,如果有的话),以及(2)他们还没有开发管理他们期望的ChatGPT策略所需的治理。因此,一些公司推出了一项为期数周的生成式人工智能试点计划,该计划实际上是一项临时ChatGPT政策,其中包括:

范围:一些公司在他们的试点项目中只包括ChatGPT,而其他公司则包括所有生成式人工智能工具或其他一些人工智能工具组。

技术的限制在人工智能治理委员会批准一份普遍允许的用例清单之前,一些公司正在阻止所有员工将ChatGPT用于不属于试点计划的工作。其他公司允许所有员工出于某些有限的低风险目的使用ChatGPT,但使用代理来监控员工在ChatGPT中输入的内容,并阻止以不被允许作为计划一部分的方式使用ChatGPT的员工访问ChatGPT(例如,在其输入中包含机密客户信息)。

委员会:创建一个跨职能的AI治理委员会,以确定禁止的用例和允许的用例。对于允许的用例,决定应该应用哪些限制或护栏(如果有的话)。

用途一览表:创建一个定期更新的内部网页,列出允许和禁止使用ChatGPT。该内部网页可以明确指出,如果员工的潜在用例没有出现在允许或禁止的列表中,他们可以提交一份提案,由指定的beta测试人员对该用例进行测试(如下所述),如果得到人工智能治理委员会的批准,则将其添加到允许使用列表中。

测试人员:指定一组beta测试人员接收批准潜在用例的请求并对其进行测试。测试人员可能会接受一些与使用ChatGPT进行与工作相关的任务相关的风险方面的培训(例如,机密性、IP、质量控制、声誉风险等)。在测试了一个被提议的用例之后,他们可以:

批准请求者的用例,并建议人工智能委员会将用例添加到允许使用列表中,无论是否有护栏;

拒绝该请求,并建议AI委员会将该用例添加到禁止使用列表中;或

允许有条件的用例,例如要求所有查询都由beta测试人员运行,并将结果路由回请求者。

护栏人工智能委员会可以对批准的用例施加的限制可能包括:

授权用户:只有某些指定的员工被批准用于特定的用例。

培训用户:只有接受过与该用例相关的风险的特定培训的员工才被批准使用该用例。

标签:将特定用例的输出标记为已经由ChatGPT生成的,无论是全部还是部分。

人工审核:要求对每个已批准用例的输出进行审查,并由具有相关专业知识的人员批准其指定用途,以确保输出的准确性和质量符合目的。

记录输入:记录并维护生成相应输出的特定用例的输入记录。

通过beta测试者:要求想要为特定用例使用ChatGPT的非beta测试人员将他们提出的提示发送给其中一个beta测试人员,后者将决定这是否是一个可接受的提示,如果被批准,beta测试人员将把输出发送回请求者。

使用的限制:要求特定用例的输出仅用于特定目的(例如,用于内部培训),但不能发送给客户或在公司外部共享。

许可:探索从开发该工具的公司获得生成式AI工具的公司实例。对于其中一些工具,可以获得提供闭环实例的企业许可证,即被许可方输入到工具中的数据不会与许可方共享,也不会添加到工具的训练集中,这减少了与使用某些生成式人工智能工具的免费公共版本相关的许多机密性风险。

宣布起草一份通知员工的文件,宣布试点计划。

这些协议有许多变体。为了简化试点项目并减少治理负担,一些公司将测试人员和AI治理委员会合并为公司内部的单个个人小组。那些被指定的员工被授权审查、测试和批准用例,无论是在个人的基础上还是在他们的公司的范畴上,尽管他们被鼓励(在某些情况下被要求)在他们可以将特定的用例添加到允许或禁止的列表之前咨询或与其他测试人员达成共识。

很难在以下方面取得适当的平衡:(1)建立有序的审查和批准流程,以确保ChatGPT的使用是负责任的,不会给公司带来重大风险;(2)允许员工试验生成式人工智能工具,以发现低风险/高价值的用例,从而显著提高生产率和质量;(3)创建公平、可理解、可操作且不需要繁琐的合规/治理结构的ChatGPT策略。运行几个星期的ChatGPT试点项目可以帮助公司找到合适的组织平衡。

如欲订阅数据博客,请按在这里

Debevoise人工智能监管跟踪器(“DART”)现在可以帮助客户快速评估并遵守其当前和预期的人工智能相关法律义务,包括市、州、联邦和国际要求。

这篇博文的封面是由DALL-E制作的。

作者

Megan K. Bannigan是诉讼和知识产权与媒体集团的合伙人和成员,专注于商标、商业外观、版权、虚假广告、设计专利、宣传权、许可和其他合同纠纷。她代表的客户横跨多个行业,包括消费品、化妆品、娱乐、时尚和奢侈品、金融服务、食品和饮料、制药、专业体育和科技。可以通过mkbannigan@debevoise.com与她联系

作者

Avi Gesser是Debevoise数据战略与安全小组的联合主席。他的业务重点是就广泛的网络安全、隐私和人工智能问题向大公司提供咨询。您可以通过agesser@debevoise.com与他联系。

作者

Henry Lebowitz是Debevoise公司合伙人,也是该公司企业知识产权集团的成员。他的业务主要集中在并购、融资、资本市场和其他公司交易的知识产权和技术方面。您可以通过hlebowitz@debevoise.com与他联系。

作者

Benjamin Leb是Debevoise律师事务所诉讼部的助理。您可以通过bjleb@debevoise.com与他联系。

作者

Jarrett Lewis是并购集团的合伙人和成员。您可以通过jxlewis@debevoise.com与他联系。

作者

梅丽莎·缪斯(Melissa Muse)是Debevoise律师事务所诉讼部的助理。可以通过mmuse@debevoise.com与她联系。

作者

Michael R. Roberts是Debevoise & Plimpton全球数据战略和安全集团的高级合伙人,也是该公司诉讼部门的成员。他的业务重点是隐私、网络安全、数据保护和新兴技术事务。您可以通过mrroberts@debevoise.com与他联系。

作者

莱克斯·盖拉德(Lex Gaillard)是Debevoise纽约办事处的法律助理。

Baidu
map