看来,尽管谷歌大力推动增加自己在人工智能聊天机器人领域的市场份额,但其母公司Alphabet一直在警告自己的员工人工智能聊天机器人的危险。
据路透社报道,“谷歌母公司已建议员工不要将其机密材料输入人工智能聊天机器人”,并警告“其工程师避免直接使用聊天机器人可以生成的计算机代码”。越来越多的公司和组织一直警告其员工注意这些公开的聊天程序,采取这些安全预防措施的原因有两个。
一是人工审核员可以读取聊天中输入的敏感数据,而人工审核员被发现主要为ChatGPT等聊天机器人提供动力。另一个原因是研究人员发现人工智能可以复制其吸收的数据并产生泄漏风险。谷歌向路透社表示,“它的目标是对其技术的局限性保持透明。”
与此同时,谷歌一直在向180个国家推出自己的聊天机器人GoogleBard,支持40多种语言,并从其人工智能项目中获得了数十亿美元的投资以及广告和云收入。尽管一些领导层对这些项目带来的潜在内部安全挑战持保留态度,但该公司还在将其人工智能工具集扩展到其他谷歌产品,如地图和镜头。
谷歌的双重性
谷歌试图双管齐下的原因之一是避免任何潜在的商业损害。如前所述,这家科技巨头在这项技术上投入了大量资金,任何重大争议或安全失误都可能让谷歌损失巨额资金。
其他企业一直在尝试制定类似的标准,规定员工在工作时如何与聊天机器人人工智能互动。包括三星、亚马逊和德意志银行在内的一些公司已经向路透社证实了这一观点。苹果公司没有证实,但据报道已经采取了同样的做法。
事实上,据报道,三星在2023年初发生了三起员工通过ChatGPT泄露敏感信息的事件后,三星彻底禁止其工作场所使用ChatGPT和其他生成式人工智能。这尤其具有破坏性,因为聊天机器人会保留所有输入的数据,这意味着三星的内部商业机密将被泄露。现在基本上掌握在OpenAI手中。
虽然这看起来很虚伪,但谷歌和其他公司内部对人工智能聊天机器人如此谨慎的原因有很多。然而,我希望它能够将这种谨慎延伸到它的发展速度并公开推广相同的技术。