Debevoise数据博客

ChatGPT是OpenAI开发的人工智能语言模型,于2022年11月向公众发布,目前已有数百万用户。虽然大多数人最初使用公开版本的ChatGPT来完成个人任务(如。比如生成食谱、诗歌、锻炼程序等),许多人已经开始将其用于与工作相关的项目。在这篇Debevoise Data博客文章中,我们将讨论人们如何在工作中使用ChatGPT,相关的风险是什么,以及公司应该考虑实施哪些政策来降低这些风险。

员工如何在工作中使用ChatGPT

关于ChatGPT将如何取代某些工作的文章已经有几十篇了。但是,至少就目前而言,ChatGPT似乎并没有取代工人,而是提高了他们的生产力。下面是一些例子:

  • 漏洞百出:员工使用ChatGPT的方式与他们使用谷歌或Wikipedia来检查他们正在生成或审查的文档中的事实相同。
  • 初稿: ChatGPT可以生成演讲、备忘录、求职信和日常电子邮件的草稿。当被要求撰写这篇博客文章时,ChatGPT提出了一些有用的建议,包括“使用ChatGPT的员工必须接受培训,以了解该工具的功能和限制,以及在工作场所使用它的最佳实践。”
  • 编辑文档:因为ChatGPT是一个在数百万个文档上训练过的语言模型,所以它非常擅长编辑文本。员工们正在处理措辞糟糕的段落,并让ChatGPT修正语法错误,提供更清晰的内容,总体上增加可读性。
  • 生成的想法: ChatGPT在生成列表方面出奇地好。为了我们即将到来的网上直播“聊天模式”在法律界的角色, ChatGPT提出了关于维护特权、检查准确性以及向客户和法院披露ChatGPT角色的问题。
  • 编码:在工作中,ChatGPT最常见的两个用途是生成新代码和检查现有代码,许多程序员说ChatGPT使他们更加高效和多产。

工作中使用ChatGPT的风险

  • 质量控制风险:令人印象深刻的是,ChatGPT可以产生不准确的结果。在起草法律摘要的部分内容时,它有时会引用不相关或不存在的案例。因为它是一种语言模型,它经常在计算任务中遇到困难,并且在被要求解决基本代数问题时可能会给出错误的结果。OpenAI很清楚这些限制。事实上,ChatGPT本身经常发出可能生成错误信息的警告。它对2021年之后发生的世界事件的认识也存在差距。当检查ChatGPT输出的人可以很容易地发现并纠正这些类型的错误时,这些风险可能会降低。但是,如果审查员不能轻易地确定ChatGPT响应中的错误(或缺失),或者根本没有人审查它,那么质量控制风险就会增加。这些风险有多大取决于用例。例如,与为公司信息系统的核心操作生成基本代码相比,在总结关于特定主题的新闻报道以提高内部意识时,风险更低。
  • 合同风险:在工作中使用ChatGPT有两个主要的合同风险来源。第一个在美国,公司与第三方(包括通过ChatGPT与OpenAI)共享客户或客户机密信息的能力可能受到限制。第二个,与ChatGPT共享某些客户数据也可能违反与这些客户关于其数据可用于何种目的的合同条款。在进行这种分析时,公司应该记住,ChatGPT的使用权在多个文件中列出,包括使用条款分享与发布政策内容策略,使用政策,规定OpenAI可以使用提供给ChatGPT的内容来开发和改进其功能。同样需要注意的是,许多员工是以个人身份注册ChatGPT的,因此不完全清楚这些条款适用于谁。
  • 隐私风险:与一些合同风险类似,通过ChatGPT与OpenAI共享客户、客户或员工的个人信息会产生隐私风险。根据ChatGPT常见问题解答OpenAI可能会将ChatGPT对话用于培训目的和改进其系统。根据与ChatGPT共享的个人信息的性质,公司可能有义务更新隐私政策,向客户发出通知,获得他们的同意和/或向他们提供选择退出权等。这些义务可能源于美国州或联邦隐私法,公司应考虑对这些法律的不断演变的解释自动化决策、概要分析和其他相关概念2023年州隐私法.涉及个人数据的ChatGPT使用也提出了一些问题,即公司(反过来openai)可能如何处理删除权或从ChatGPT生成的工作流或模型本身删除数据的请求。
  • 消费者保障风险:如果消费者不知道他们正在与ChatGPT进行交互(而不是人类客户服务代表),或者他们从公司收到的文件是由ChatGPT生成的,而没有明确披露,那么根据州或联邦法律,就有不公平或欺骗性行为的索赔风险(除了明显的声誉风险)。视情况而定,如果客户付费购买的内容后来才知道是由ChatGPT生成的,但没有被识别出来,他们可能会感到不安。
  • 知识产权风险: ChatGPT的使用引发了几个复杂的IP问题。第一个在美国,就员工使用ChatGPT生成软件代码或其他内容而言,这些内容在许多司法管辖区可能不受版权保护,因为这些内容不是由人类编写的。这是美国版权局(United States Copyright Office)目前的立场,尽管在最近提起的诉讼中,对人类作者身份的要求受到了挑战。第二个在美国,ChatGPT及其产生的任何内容都有可能被视为用于训练模型的版权材料的衍生作品。如果这种观点盛行,由ChatGPT生成的软件代码、营销材料和其他内容可能被认定为侵权,特别是如果这些内容看起来与受版权保护的培训数据非常相似。此外,如果员工将机密代码、财务数据或其他商业秘密和机密信息提交到ChatGPT中进行分析,则存在这样一种风险:ChatGPT的其他用户可能会将相同的数据提取出来,从而损害其保密性,并可能支持这样一种论点,即此类数据不是保护其机密状态的合理步骤的主题。最后在美国,如果提交给ChatGPT的软件包含开源,那么值得考虑的是,这种提交是否可能被视为构成可能触发开源许可义务的发行版。
  • 供应商的风险:上述许多风险也适用于提供给供应商或从供应商接收的公司数据。例如,与供应商的合同是否应该规定,未经事先同意,ChatGPT不能生成供应商提供给公司的信息?合同是否也应规定不能将公司机密数据输入ChatGPT?

降低ChatGPT风险的方法

鉴于这些法律、商业和声誉风险,一些公司已经开始培训员工如何正确使用ChatGPT,并起草了在工作中使用ChatGPT的政策。培训应该提醒员工,ChatGPT并不完美,对ChatGPT的查询结果仍然应该使用传统方法进行验证。围绕ChatGPT的政策倾向于将ChatGPT的使用分为三类:(1)被禁止的使用(如。,使用ChatGPT检查机密公司或客户文件或敏感公司代码中的错误);(二)经指定机关批准的用途(如。,生成代码,只要在实现之前由专家仔细审查);(三)未经许可使用的如。例如,创建纯行政内部信息,比如为新员工提供破冰的想法。此外,公司正在采取措施降低与使用ChatGPT相关的风险,包括以下内容:

  • 风险评级:创建一套评估特定ChatGPT使用是低风险、中风险还是高风险的标准(如。,公司或客户机密信息是否与ChatGPT共享,输出是否与客户共享等)。
  • 库存:要求将所有用于工作的ChatGPT使用报告给一个团队,该团队跟踪这些使用,并根据已建立的标准(适当地更新标准)将其评估为低风险、中等风险或高风险。
  • 内部标签:对于某些用途,要求用户用易于识别的标签标记ChatGPT生成的内容,以便审稿人知道要格外注意这些材料。
  • 外部的透明度:在与客户端或公开分享时,清楚地识别由ChatGPT创建的内容。
  • 保留记录:对于高风险的使用,保持内容生成时间和用于生成内容的提示的记录。
  • 培训:根据公司和其他组织的经验,定期对员工进行ChatGPT可接受和禁止使用的培训。
  • 监控:对于某些高风险用例,部署工具(包括OpenAI或其他生成式AI模型提供商创建的工具)来确定ChatGPT或其他AI工具是否违反公司政策生成了信息。

作者要感谢Debevoise法律助理Lex Gaillard在Debevoise数据博客上所做的工作。

订阅数据博客,请点击这里

本文的封面由DALL-E制作。

作者

Megan K. Bannigan是诉讼和知识产权与媒体集团的合伙人和成员,专注于商标、商业外观、版权、虚假广告、设计专利、宣传权、许可和其他合同纠纷。她代表的客户涉及多个行业,包括消费品、化妆品、娱乐、时尚和奢侈品、金融服务、食品和饮料、制药、专业体育和科技。可以通过mkbannigan@debevoise.com与她联系

作者

Avi Gesser是Debevoise数据战略与安全集团的联合主席。他的业务重点是就广泛的网络安全、隐私和人工智能事务为大型公司提供咨询。可以通过agesser@debevoise.com与他联系。

作者

Henry Lebowitz是Debevoise公司合伙人和公司知识产权集团成员。他的业务专注于领导并购、融资、资本市场和其他企业交易的知识产权和技术方面。可以通过hlebowitz@debevoise.com与他联系。

作者

Erez是诉讼合伙人,也是Debevoise数据战略与安全集团的成员。他的业务重点是就广泛复杂、高影响的网络事件响应事项和数据相关的监管要求向主要企业提供咨询。可以通过eliebermann@debevoise.com与Erez联系

作者

Anna R. Gressel是该公司数据战略与安全集团及其金融科技和技术实践的合伙人和成员。必威苹果客户端下载她的业务重点是代表客户进行与人工智能和其他新兴技术相关的监管调查、监督审查和民事诉讼。Gressel女士对AI治理和合规方面的法规、监管期望和行业最佳实践有深入的了解。她经常就与人工智能、隐私和数据治理相关的治理、风险和责任问题向董事会和高级法律高管提供建议。可以通过argressel@debevoise.com与她联系。

作者

Michael R. Roberts是Debevoise & Plimpton全球数据战略和安全组的高级助理,也是该公司诉讼部门的成员。他的业务重点是隐私、网络安全、数据保护和新兴技术事务。可以通过mrroberts@debevoise.com与他联系。

作者

梅丽莎·缪斯是德贝沃斯诉讼部门的助理。可以通过mmuse@debevoise.com与她联系。

作者

Jarrett Lewis是并购集团的合伙人和成员。可以通过jxlewis@debevoise.com与他联系。

作者

Benjamin Leb是Debevoise诉讼部门的助理。可以通过bjleb@debevoise.com与他联系。

作者

莱克斯·盖拉德是诉讼部门的法律助理。可以通过adgaillard@debevoise.com与他们联系。

作者

Baidu
map