近期,人工智能初创公司ScaleAI陷入了一场严重的数据安全风波。这家估值不菲、并被Meta以148亿美元收购49%股份的公司,被曝出竟然使用公共的谷歌文档来存储包括Meta、谷歌和xAI在内的众多客户的绝密信息。
谷歌文档是一款便捷的协作工具,但其“邀请或完全公开”的共享方式,显然与任何公司的严格安全标准格格不入。据报道,任何知道ScaleAI文档链接的人,都可以轻易访问这些包含绝密项目、电子邮件地址和付款信息等敏感内容的谷歌文档。
ScaleAI的一位发言人对此回应称,公司正在进行彻底的调查,并且已经禁止任何用户公开分享ScaleAI管理系统中的文档。然而,谷歌和xAI尚未对此事发表评论,而Meta则选择拒绝置评。
“大门常打开”:广泛使用的谷歌文档成安全隐患
据五名ScaleAI的承包商透露,谷歌文档在ScaleAI内部被广泛使用。网络安全专家指出,尽管目前尚无迹象表明这些公开文件已导致实际的数据泄露,但这种存储方式无疑让ScaleAI极易受到黑客攻击。
调查显示,在ScaleAI采取措施之前,人们可以查看多达85份、数千页的项目信息,其中详细记录了ScaleAI与大型科技客户之间的敏感合作。例如,这些文档揭示了谷歌如何利用OpenAI的ChatGPT来微调自己的聊天机器人。
更令人震惊的是,至少有七份被标记为机密信息的谷歌项目手册向公众开放,其中包括如何改进其聊天机器人Bard的具体建议。此外,公开的谷歌文档中甚至包含了埃隆·马斯克“木琴计划”(ProjectXylophone)的详细内容,比如用于训练xAI人工智能模型的700个对话提示。
承包商们还透露,尽管这些项目通常有秘密代号,但他们仍然能清晰辨别自己为哪个客户工作。在使用人工智能产品时,聊天机器人有时在被询问时甚至会直接透露客户信息。
员工信息与薪资细节也被曝光
除了客户的机密项目信息,ScaleAI的谷歌文档中还赫然披露了该公司数千名员工的姓名和私人联络方式。更甚者,有些文件甚至详细列出了个体承包商的工资数额,包括有关工资纠纷和差异的详细说明。
这些信息无疑充分暴露了ScaleAI在数据安全性上的严重纰漏,并可能引发法律纠纷。值得注意的是,就在Meta入股ScaleAI后不久,业内便有传言称包括谷歌在内的大客户已经与ScaleAI进行了业务上的切割,以防止ScaleAI向Meta透露敏感内容。此次谷歌文档事件,无疑将进一步加剧客户对ScaleAI数据安全能力的担忧。