Debevoise数据博客

数据战略与安全小组的联合主席Avi Gesser与SHRM的主持人Tony Lee进行了交谈万物运转播客,讨论人工智能工具在哪些方面表现出色,在哪些方面被工人使用时表现不佳。

听播客在这里

- - - - - -

人力资源管理协会发表了一篇文章,题为《人工智能的希望和危险》,文章引用了Avi的话,讲述了雇主和雇员如何迅速采用ChatGPT和其他生成式人工智能的能力,而没有考虑使用它们的潜在后果。

我认为ChatGPT /生成式人工智能政策应该包括哪些内容,以最大限度地减少众多法律风险,如侵犯版权、侵犯隐私和抄袭。

“但在设计任何新协议之前,考虑公司将如何使用这项技术是值得的,”他说,并补充说,“组织……仍在学习这项技术能做什么”,人们在用它做什么,以及他们想用它做什么。

他指出,使用这项技术可能会产生新的法律问题,“比如,在不披露使用这些工具的情况下,是否要向客户收取使用生成式人工智能开发的材料的费用。”

Avi接着提出了制定政策的步骤:

  1. 列出禁止的用途。这将包括任何违反现有公司政策或法律的内容。不要允许任何人将任何类型的机密或高度个人信息放入该工具,除非该工具是公司封闭的专有系统,组织外的任何人都无法访问。
  2. 确定什么是允许的。例如,公司可能对员工使用该技术起草信件或总结公共文件感到满意。
  3. 开发一个系统来评估员工在没有明确禁止或允许的情况下使用技术的请求。指定一个人或一个小组来做这样的决定,并为员工建立一种解释他们的项目并获得答案的方式。

全文可在此查看在这里

这篇博文的封面是由DALL-E制作的。

作者

Avi Gesser是Debevoise数据战略与安全小组的联合主席。他的业务重点是就广泛的网络安全、隐私和人工智能问题向大公司提供咨询。您可以通过agesser@debevoise.com与他联系。

Baidu
map