Debevoise数据博客

上个月,我们写过有多少公司正在实施ChatGPT的试点项目,作为我们关于……的文章的后续文章采用与工作相关的生成人工智能工具使用政策的公司就像ChatGPT吟游诗人克劳德。(我们统称为“生成式人工智能”)。我们讨论了试点项目通常如何涉及指定一小群员工来测试潜在的生成式人工智能用例,然后向跨职能的人工智能治理委员会提出建议,该委员会决定(1)哪些用例是禁止的,哪些是允许的,以及(2)对于允许的用例,应该适用哪些限制(如果有的话)。

采用ChatGPT的经验教训

运行生成式人工智能试点项目或采用更广泛的生成式人工智能政策的过程,使公司在人工智能采用方面获得了一些经验教训,包括:

人工智能治理的价值

如果没有适当的治理结构,人工智能的采用可能会很困难。即使确定了低风险/高价值的用例,公司可能仍然觉得有必要禁止生成式人工智能工具,因为他们没有适当的治理机制来审查和授权这些适当的用例,同时也有效地禁止高风险/低价值的用例。

长期禁令的风险

虽然完全禁止生成式人工智能工具可能是降低风险和评估选择的明智短期方法,但对许多公司来说,这不是一个可行的长期解决方案。首先,至少允许一些员工尝试生成式人工智能工具,以找到可以提高生产力并提供优质产品或服务的低风险/高价值用例,这可能具有重大价值。其次,由于这些工具可以在个人设备上使用,因此长期全面禁止员工在平台外使用这些工具,公司无法监控这些工具的使用情况,也无法对输入工具或从中生成的信息设置护栏。

Ad Hoc策略的限制

一些公司利用他们在ChatGPT方面的经验作为一个机会,建立了一个更全面的人工智能治理计划,不仅要解决生成式人工智能工具的风险和好处,还要更广泛地管理人工智能的采用。随着新的人工智能工具的出现,公司认识到,他们将受益于一个有序的过程,以快速评估其风险和收益,并以公平、可理解、可操作的方式采用它们的使用,而不需要创建一个特别的或繁重的合规结构。

塑造监管的机会

监管机构一再表示,采用人工智能的公司需要有适当的治理和风险管理。但他们还没有提供具体的指导,说明这需要什么。一些监管机构可能会利用他们的考试过程或行业调查来告知他们对具体人工智能治理要求的看法。因此,实施有效的人工智能治理计划是一个机会,可以以适合该特定公司的方式塑造监管格局。

早点开始的其他好处

已经拥有人工智能治理项目的公司通常能够更好地管理他们对ChatGPT的采用,因为他们已经成立了一个委员会,并正在运行,该委员会拥有评估和采用生成式人工智能用例的授权和流程。这些公司已经从他们决定尽早开始人工智能治理中看到了很多好处,包括:

  • 创建新的和复杂的治理结构(如AI部署所需的治理结构)是资源密集型的,并且需要时间来正确设置。在确定公司的最佳结构和流程之前,这个过程通常会有一些错误的开始和尝试和错误。
  • 有效的人工智能治理通常需要来自组织多个不同部分的输入,包括风险、法律、合规、IT、人力资源和各种业务功能。找到合适的人,他们有足够的带宽,可以在这些问题上有效地合作,也需要时间和培训,并且可能需要正式的内部或外部搜索。
  • 监管机构和原告律师正在寻找机会,对他们认为鲁莽采用人工智能的公司提出索赔。拥有一个强大的人工智能治理计划将降低采用人工智能造成意外伤害的风险,并使公司能够对其人工智能工具在没有适当考虑和监督的情况下被采用的说法做出回应。
  • 同样,采用人工智能往往会带来一些声誉风险。拥有人工智能治理程序向客户和员工发出信号,表明组织正在认真考虑如何负责任地部署和监控人工智能工具,以确保它们的使用公平、准确和透明。

人工智能治理框架的核心要素

对于有兴趣采用更广泛的人工智能治理计划的公司,以下是应该考虑的一些因素:

范围

确定公司的人工智能治理计划将涵盖哪些模型、算法、大数据系统和人工智能应用程序,哪些工具不包括在内,并解释原因。最好包括具体的例子,以帮助对所采用的任何新的人工智能工具进行分类。

库存

对于由程序管理的每个人工智能应用程序,记录有关应用程序的详细信息,其中可能包括:其目的、打算解决的问题、输入和输出、训练集、对公司及其客户的预期收益、潜在风险、可能受到伤害的人、模型是否涉及自动决策、任何必要的保障措施、谁对应用程序负责及其风险评级。

指导原则

为人工智能的设计、开发和使用创建一套高级指导原则,其中可能包括对问责制、公平性、隐私性、可靠性和透明度的承诺。

行为准则

起草一份面向员工的行为准则,以实施指导原则。

跨职能管治委员会

建立一个跨职能委员会,监督该计划或其他建立全面问责制的手段,包括审查新的高风险用途和确定允许其继续使用的缓解措施;监督负责任使用人工智能的政策、程序和指导方针;向高级管理层或董事会报告;管理与人工智能应用相关的事件和业务连续性风险。

风险因素及评估

创建一个风险因素列表,将人工智能应用划分为低风险或高风险,并确定如何评估人工智能应用的风险。这允许组织优先考虑风险最高的模型,以供跨职能委员会审查。

风险缓解措施

建立治理委员会可以建议的步骤列表,以减少与某些高风险模型相关的风险,包括偏见评估、压力测试、增强透明度或额外的人为监督,视情况而定。

培训

为参与开发、监控、监督、测试或使用相关法律和声誉风险的高风险人工智能应用程序的个人提供培训。

政策更新

更新关键政策,以解决与人工智能应用相关的独特风险,包括隐私、数据治理、模型风险管理和网络安全。

事件响应

制定应对人工智能应用程序中存在偏见或其他缺陷的计划,并进行人工智能事件桌面练习来测试该计划。

公开声明

鉴于美国联邦贸易委员会关于过度销售人工智能应用的风险的新指导意见审查公司有关使用人工智能的公开声明,以确保其准确性。

供应商风险管理

审查供应商政策,确保第三方提供的人工智能应用程序受到适当的尽职调查和合同条款的约束。

高级管理层和董事会监督

制定定期向高级管理层和董事会报告的计划。

文档

维护有关项目的文件,以解决问题,回应询问,并满足监管期望。

* * *

要观看我们关于ChatGPT如何工作的网络直播的点播版本,点击这里

Debevoise人工智能监管跟踪器(“DART”)现在可以帮助客户快速评估并遵守其当前和预期的人工智能相关法律义务,包括市、州、联邦和国际要求。

订阅我们的数据博客,请点击在这里

如果有任何问题,请不要犹豫与我们联系。

作者

Avi Gesser是Debevoise数据战略与安全小组的联合主席。他的业务重点是就广泛的网络安全、隐私和人工智能问题向大公司提供咨询。您可以通过agesser@debevoise.com与他联系。

作者

Suchita Mandavilli Brundage是Debevoise数据战略与安全集团的合伙人。可以通过smbrundage@debevoise.com与她联系。

作者

塞缪尔·阿拉曼(Samuel Allaman)是Debevoise律师事务所诉讼部的助理。您可以通过sjallaman@debevoise.com与他联系。

作者

梅丽莎·缪斯(Melissa Muse)是Debevoise律师事务所诉讼部的助理。可以通过mmuse@debevoise.com与她联系。

作者

莱克斯·盖拉德(Lex Gaillard)是Debevoise纽约办事处的法律助理。

Baidu
map