正如我们在之前的文章中所写的,2022年8月11日,联邦贸易委员会(“FTC”)宣布它的拟制定规则的预先通知(“ANPR”)就95个问题征求公众意见,这些问题集中在“商业监视和宽松的数据安全实践”造成的危害,以及是否需要根据《联邦贸易委员会法案》第18条制定新的贸易监管规则来保护人们的隐私和信息。
在第1部分在本数据博客系列中,我们概述了ANPR和联邦贸易委员会规则制定过程的背景。在第2部分而且第3部分,我们讨论了ANPR中以隐私为中心和以数据安全为中心的组件如何为企业提供可操作的内容。
在本第4部分中,我们将探讨FTC ANPR如何解决人工智能、算法和歧视问题,以及企业应该考虑的加强其人工智能治理和合规计划的步骤。
ANPR涉及人工智能、算法和歧视的关键主题
正如ANPR的问题所示,美国联邦贸易委员会正在就新的贸易监管规则如何解决与人工智能、自动决策(“ADM”)系统和算法使用相关的潜在危害和歧视性结果征求意见。具体而言,联邦贸易委员会的重点是评估新规则是否应该以及在多大程度上:
- 实施数据最小化或目的限制要求,考虑到这些要求可能对ADM或其他基于算法学习的过程或技术产生潜在影响,这些过程或技术往往需要大量个人数据用于培训或操作;
- 处理与ADM算法错误相关的潜在危害,包括通过评估和/或认证有关企业ADM操作的准确性、有效性、可靠性或错误的要求,以及企业的商业监督操作是否符合其自己公布的业务政策;
- 考虑如何确保公司的ADM实践(包括,例如,他们对自然语言处理技术的使用)更好地保护非英语社区免受欺诈和滥用数据实践的影响;
- 禁止或限制开发、设计和使用产生或促成违反《联邦贸易委员会法案》第5条结果的ADM系统;
- 限制与企业如何个性化或投放定向广告相关的ADM系统的使用;
- 禁止或以其他方式限制产生歧视的人工智能系统的部署,无论这些结果基于何种数据或流程;
- 衡量、评估和分析不同的结果,基于受保护类别的代理的歧视,以及涉及多个受保护类别时的歧视(例如,怀孕的退伍军人或黑人女性);
- 关注基于受保护阶层的伤害和/或考虑对现行法律不承认受保护不受歧视的其他服务不足群体的伤害(例如,无家可归者或农村社区居民);
- 管制国会已明确立法的领域(g。住房,就业,劳动力和消费金融),或解决所有部门;
- 依据《联邦贸易委员会法案》第5条规定的联邦贸易委员会的不公平权力,或与适用的反歧视原则有关其他部门(g。、国家有关规定保险或就业,以及备选数据集和“大数据”)或根据联邦法规;而且
- 列举《联邦贸易委员会法案》中没有明确规定但联邦贸易委员会认为属于其职权范围内的特定形式的救济或损害(g。,算法追缴或“模型的破坏这是联邦贸易委员会在涉及的多项执法行动中要求的补救措施孩子们的数据,健康数据,其他敏感资料).
美国联邦贸易委员会关注人工智能、算法和歧视
在过去的十年里,包括联邦贸易委员会在内的美国主要监管机构对人工智能、算法以及滥用这些技术可能导致的歧视性做法的理解和看法不断发展和增强。尤其是联邦贸易委员会该公司还应用了有争议的新补救措施,如算法泄放,以解决与这些技术相关的消费者损害。联邦贸易委员会执行一系列适用于人工智能开发者和用户的法律,包括《联邦贸易委员会法》第5条、《公平信用报告法》(“FCRA”)和《平等信用机会法》(“ECOA”)。
在过去的几年里,美国联邦贸易委员会发表了一系列博客文章,为各种人工智能主题提供指导。这些帖子还解释说,联邦贸易委员会的执法行动、研究和指导强调,人工智能工具的使用应该促进问责制,并且是透明的、可解释的、公平的和经验上合理的。这些博客文章包括使用人工智能和算法(2020年4月8日)在你的公司使用人工智能时,目标是真实、公平和公平(2021年4月19日)。
增强人工智能合规性和降低风险的缓解战略
正如我们在整个数据博客系列中所指出的,虽然与ANPR相关的新贸易监管规则的颁布可能还需要几年时间(如果规则制定过程继续进行的话),但企业可以将ANPR视为风险缓解战略的潜在路线图。虽然每个公司都不一样,但公司应该考虑改善其人工智能合规和治理计划(“计划”),并降低监管和声誉风险的策略如下所示,其中许多都是FTC在其指导意见中强调的。
- 范围:确定哪些类型的模型、算法和数据集被程序覆盖,哪些不被覆盖(以及为什么)。
- 库存:对于本计划所涵盖的每个模型或算法,确保收集足够的信息进行内部风险评级。
- 指导原则:为该计划制定一套高层次的指导原则,如问责制、公平、隐私、可靠性和透明度。
- 行为准则:起草一份面向员工的行为准则,旨在实施公司的人工智能指导原则。
- 治理委员会建立一个跨职能委员会监督该计划或通过其他方式对该计划建立全面问责制,并对特定高风险模式建立个人责任。
- 风险因素及评估:创建用于对覆盖模型进行分类的风险因素列表,并考虑建立高风险模型的最坏情况。
- 风险缓解措施:建立治理委员会可以建议的步骤列表,以减少与某些高风险模型相关的风险,包括适当的偏差测试和额外的人力监督。
- 隐私合规:确保公司在数据收集、使用和处理方面履行了隐私义务,并且不会误导消费者,让他们知道公司在对他们的个人数据做什么和不做什么。
- 禁止输入和可疑输入:对公司禁止的、或被认为是可疑的、需要说明理由或审查的模型列一份输入清单。
- 政策更新更新具有人工智能影响的关键政策,包括隐私、数据治理、模型风险管理和网络安全。
- 培训:为参与项目的人员提供人工智能法律和声誉风险培训。
- 事件响应:创建一个计划,以应对程序中偏见或其他缺陷的指控,并进行人工智能事件桌面练习来测试该计划。
- 公开声明:审查公司有关人工智能的公开声明,以确保其准确性。
- 告密者的政策:修改公司的举报人政策,以考虑与人工智能相关的投诉和调查。
- 透明度:定期审查公司模型向消费者披露的可能对其产生重大影响的决策,以确保准确性和合规性,包括提供有关决策中考虑的数据的信息,以及潜在的上诉和选择退出权。
- Explainability:定期审查影响消费者的模型,以确保决策符合解释哪些因素对模型决策影响最大的法律要求。
- 可审核性和文档:确保有关模型培训和操作的文件符合法规要求。
- 供应商风险管理:审查供应商政策,确保第三方提供的人工智能已经过适当的审查和合同规定。
- 董事会监督:适当时向董事会报告该计划。
订阅数据博客,请点击这里.
作者要感谢前法律助理Lily Coad在Debevoise数据博客上所做的工作。