Debevoise数据博客

《议程》最近采访了Avi Gesser与生成式人工智能工具相关的法律风险,公司董事会是否需要人工智能专家,以及哪个董事会委员会应该负责监督人工智能风险和合规性。以下是一些相关的引用:

“人工智能有很多有益的商业用途,但它也会带来声誉风险、操作风险和法律风险。对于生成式人工智能,这些风险包括隐私、知识产权、网络安全和与工具共享机密数据的合同风险。”

“如果这些工具被用来生成与客户共享的信息,或者被用来对客户做出决定,你还需要考虑偏见、透明度和质量控制风险。”

“一些更具体的法律风险包括机密信息的可能性
或者通过生成式人工智能共享商业机密,以及监管机构的审查。”

美国联邦贸易委员会(Federal Trade Commission)警告企业不要夸大
他们的算法可以做到,并宣布将追究与虚假广告索赔相关的责任
人工智能。”

“虽然计划使用人工智能的公司不一定需要人工智能专家
董事会、董事们可能应该考虑将人工智能风险和治理作为一项定期工作
董事会议程项目。”

“人工智能可以与所有人共存;现有的委员会,如审计或技术;或是新成立的人工智能委员会。此外,其他公司也做出了决定
将人工智能的责任交给负责网络安全的委员会。”

“然而,如果董事会担心它没有必要的专业知识来监督
人工智能的机遇和风险,它应该考虑让一些董事会成员接受人工智能培训。他们还应该考虑将人工智能风险和监管合规的管理责任分配给特定的管理层成员或管理委员会,以帮助促进适当的监督。”

全文可以在在这里阅读

作者

Avi Gesser是Debevoise数据战略与安全小组的联合主席。他的业务重点是就广泛的网络安全、隐私和人工智能问题向大公司提供咨询。您可以通过agesser@debevoise.com与他联系。

Baidu
map