(资料图)
专家:ChatGPT也存在网络安全问题
工人日报-中工网记者 车辉
近期,ChatGPT的自然语言交互能力引起了广泛关注。ChatGPT究竟对于网络安全行业会产生怎样的影响?绿盟科技首席创新官刘文懋认为,ChatGPT对网络安全的影响可以从四个方面进行讨论:
攻击方面:ChatGPT具备生成可用于网络攻击的脚本、钓鱼邮件的能力,也能被用来解密一些较易解密的加密数据。然而,ChatGPT的能力仍不能达到或超越具有专业知识和经验的真人黑客,其起到的作用主要是提高黑客的攻击效率。随着内容安全策略的进一步强化,ChatGPT作为攻击武器辅助网络攻击的门槛也会进一步提高。因此相关影响在总体上来说仍处于一个可控范围。在未来,伴随AI生成内容检测技术的发展与ChatGPT自身内容安全策略的演进,ChatGPT武器化造成的不良影响将被进一步压缩。
安全隐私方面:AI应用一般面临的投毒攻击、闪避攻击、推理攻击、模型提取等攻击目前仍未见到在ChatGPT上成功的案例。然而,ChatGPT的高度“智能化”也导致其存在自己独特的安全问题:提示注入。通过提示注入,用户可以绕过OpenAI设置的内容安全策略,从而对ChatGPT进行滥用。在辅助编程这一应用场景上,ChatGPT的应用可能也存在一定的安全隐患,ChatGPT生成的代码可能含有可被利用的已知安全漏洞。对于企业来说,虽然员工使用ChatGPT能够在一些工作上一定程度地提高效率,但由于ChatGPT并没有通过技术手段保障用户数据安全,且会对用户输入进行分析,故对于敏感信息一定要严格保护。
社会影响方面:ChatGPT输出的文本取决于训练语料与其概率分布。故ChatGPT并没有真正的道德观与价值观,在一些涉及价值观、情感的问题上,ChatGPT输出的内容可能会造成非正向的社会影响。对于教育、内容创作等领域,滥用ChatGPT最终还可能会导致劣币驱逐良币。需要通过技术手段对ChatGPT在一些具体场景的使用进行管控与限制。
赋能产品方面:ChatGPT对于网络安全产品的人机交互能够起到明显的推进作用,并且能够用来辅助执行一些网络安全任务。虽然在实际落地ChatGPT到网络安全产品的过程中仍存在许多挑战。