首页 >  区块链资讯 >  正文
微软副总裁参与起草!业内最新报告:ChatGPT或会暴露企业机密信息
发布日期:2023-04-19

微软副总裁参与起草!业内最新报告:ChatGPT或会暴露企业机密信息来源:财联社

编辑 潇湘

微软副总裁参与起草!业内最新报告:ChatGPT或会暴露企业机密信息

年初以来,围绕ChatGPT等最新的人工智能聊天工具的投资热潮,可谓“一浪高过一浪”。不过随之产生的安全性、透明度和公平性等监管话题,也开始越来越受到人们的高度重视。虽然当前人工智能技术正掀起新一轮技术革命,但也引发了人们对潜在新型攻击和内容合规等安全风险的疑虑……

本周,以色列网络安全公司Team8在一份最新报告中就表示,使用ChatGPT等生成式人工智能工具的公司,可能会将客户信息和商业机密置于危险之中。

该报告指出,新型人工智能聊天机器人和协作工具的广泛推广普及,可能会令一些公司面临数据泄露和法律风险。许多人眼下已担心,黑客可能会利用人工智能聊天工具,来获取敏感的企业信息或对企业发动攻击。此外,目前投喂给聊天机器人的机密信息,未来也有可能会被AI公司所利用。

这份报告的发布方——Team8在全球网络安全领域享有盛名,这家以色列公司成立于2014年,由前以色列国防军精英部队“8200部队”的成员创立,专注于网络安全、数据分析和人工智能等领域。巴克莱、微软、沃尔玛和思科等多家全球巨头企业都与Team8有着合作和投资关系。

多类风险不容小觑

目前,包括微软和谷歌母公司Alphabet在内的大型科技公司,都在争相通过生成式AI技术改进聊天机器人和搜索引擎。他们利用从互联网上抓取的数据训练其AI模型,为用户的查询提供一站式服务。

对此,Team8在报告表示,如果企业使用机密或私密数据来投喂这些工具,今后将很难删除相关信息。

Team8写道:“使用AI聊天工具的企业,其敏感信息、知识产权、源代码、商业机密和其他数据,可能会通过用户直接输入或API等渠道被其他人获取。”

Team8目前将这一风险标记为“高风险”。不过他们也表示,如果采取适当的防范措施,该风险将能降为“可控”。
Team8在报告中还强调,目前对聊天机器人的查询尚不会被输入大型语言模型中来训练AI,这与最近关于这些信息有可能被他人看到的报道相悖。不过,该报告也指出,在训练未来版本的大语言模型时,未必不会采取这种实时接入的方式。

该报告还标记了另外几项与整合生成式人工智能工具有关的“高风险”问题,并强调了信息正越来越多地面临通过第三方应用程序共享的威胁。

目前,微软已在其必应搜索引擎和Office 365工具中,嵌入了一些人工智能聊天机器人的功能。Team8报告表示,“目前在用户端,第三方应用正利用生成式人工智能的API,倘若他们遭到黑客攻击,就有可能丢失电子邮件和网络浏览器权限,攻击者还有可能冒充用户展开行动。”

报告还罗列了一些AI聊天工具存在的“中风险”问题,例如:使用人工智能有可能加剧歧视、损害公司声誉或导致企业遭遇侵权诉讼等。

多位权威人士为报告“背书”

根据媒体看到的信息,微软公司副总裁Ann Johnson参与起草了这份报告。微软已经向ChatGPT的开发者Open AI投资了数十亿美元。

微软发言人表示,“微软鼓励就安全和人工智能领域不断发展的网络风险进行透明讨论。”

此外,数十名美国公司的首席信息安全官也被列为这份报告的撰稿人。Team8的报告还得到了前美国国家安全局局长兼网络战司令部司令迈克尔·罗杰斯(Michael Rogers)的认可。

目前,ChatGPT聊天机器人的火爆已经引发了全球范围内监管呼声。不少国家的政府已担心,在人们试图利用这项技术提高效率时,这种创新也有可能会被用于不法行为。

美国联邦贸易委员会领导人周二就表示,ChatGPT等最新的人工智能工具可能导致诈骗行为激增,该机构将追究滥用人工智能技术来进行欺诈的公司。