亚马逊警告员工不要向ChatGPT分享机密,包括正在写的代码
1月25日消息,自从人工智能研究公司OpenAI于2022年11月发布AI聊天机器人ChatGPT以来,后者在科技领域受到热捧,但科技巨头亚马逊却对其充满了警惕,甚至警告员工不要与ChatGPT分享机密信息。
亚马逊内部Slack频道有许多员工关于如何使用ChatGPT的问题。有些员工询问亚马逊,是否制定了关于在工作设备上使用ChatGPT的官方指导。而其他人则想知道,他们是否被允许使用AI工具工作。一位员工敦促亚马逊云计算部门AWS澄清其对使用“生成性AI(AIGC)工具”的立场。
很快,亚马逊一名公司律师加入了讨论。Slack频道的内部交流截图显示,这位律师警告员工不要向ChatGPT提供“任何亚马逊机密信息”,包括正在编写的亚马逊代码。他还建议员工遵循公司现有的保密政策,因为ChatGPT的某些回复看起来与亚马逊内部情况十分相似。
这位律师写道:“这一点至关重要,因为你的输入可能会被用作ChatGPT的迭代训练数据,我们不希望它的输出中包含或类似于我们的机密信息。”
这些交流表明,ChatGPT突然出现后引发了许多新的伦理问题。ChatGPT是一种对话式AI工具,可以用更清晰、更智能化的答案回应查询。ChatGPT的迅速扩散有可能颠覆多个行业,包括媒体、学术和医疗保健行业等,促使人们努力寻找聊天机器人的新用例及其可能产生的影响。
员工如何与ChatGPT共享机密信息,以及其开发者OpenAI如何处理这些信息,可能会成为非常棘手的问题。这对亚马逊来说尤其重要,因为其主要竞争对手微软已经在OpenAI投入了大量资金,包括本周新一轮的融资,据报道总计达100亿美元。
在华盛顿大学教授计算语言学的艾米丽·本德(Emily Bender)说:“OpenAI在如何使用数据方面还远远不够透明,但如果这些数据被用于训练,我预计企业会这样想:在广泛使用ChatGPT几个月后,是否可能通过精心设计的提示来获取私人公司的机密信息?”
亚马逊为员工使用ChatGPT设置了许多内部防护措施。例如,交流的信息截图显示,当员工使用工作设备访问ChatGPT网站时,会弹出一条警告消息,称他们即将访问一项第三方服务,该服务“可能未被亚马逊安全部门批准使用”。
参与Slack频道聊天的员工表示,他们只需点击“Acknowledge”选项卡,就可以绕过这条消息。工作人员猜测,该警告弹出窗口是为了防止员工将机密信息粘贴到ChatGPT上,特别是因为他们还没有看到公司关于内部使用的政策。
尽管如此,有些亚马逊员工已经在将AI工具用作软件“编码助手”,以帮助改进内部代码行。一位亚马逊员工在Slack频道上写道:“我认为,如果现在能直接使用这一功能,那就太棒了!因此,任何指导意见都将是非常棒的。”
既担忧又兴奋
另一名员工说,他在ChatGPT上分享了亚马逊对一个公开编程职位的面试问题。根据这位员工在Slack上的帖子,该AI模型为其中几个技术问题提供了正确的解决方案。他说:“看到这将对我们进行编程面试的方式产生什么影响,我既感到担忧又觉得兴奋。”
总体而言,参与Slack频道聊天的亚马逊员工对ChatGPT的潜力感到兴奋,并想知道亚马逊是否正在开发与之竞争的产品。警告员工不要使用ChatGPT的公司律师表示,亚马逊正在加速开发“类似的技术”,并引用了语音助手Alexa和代码推荐服务CodeWhisperer为例。
一名AWS员工写道,Enterprise Support团队最近在内部成立了小型工作组,以“了解高级聊天AI对我们业务的影响”。研究显示,ChatGPT在回答AWS支持问题方面“表现非常好”,包括解决Aurora数据库问题等。与此同时,它在为AWS认证的云架构师考试创建培训材料方面、提出客户的公司目标方面也非常出色。
“远不够透明”
华盛顿大学的本德表示,在工作中越来越多地使用ChatGPT引发了严重的问题,即OpenAI计划如何使用与AI工具共享的材料。
OpenAI的服务条款要求用户同意其可以使用用户和ChatGPT所产生的所有输入和输出。它还表示,OpenAI从使用的数据中删除了所有个人身份信息(PII)。
但本德称,考虑到ChatGPT的规模迅速增长,在推出一周内就突破了100万用户,很难看出OpenAI如何识别和删除所有个人信息。更重要的是,公司的知识产权可能不属于PII定义的一部分。
对于亚马逊的员工来说,数据隐私似乎是他们最不关心的问题。他们说,在工作中使用聊天机器人已经使工作效率提高了10倍,许多人都希望能加入开发类似服务的内部团队。
其中一名员工在Slack上写道:“如果现在有建立类似服务的计划,我非常希望能加入其中,在有需要的时候略尽绵薄之略。”(小小)