生成式人工智能的内容信息较之传统内容生产方式更难被监测识别。ChatGPT 对大数据与人工逻辑训练的依赖,导致其不同于PGC 与 UGC 等传统内容生产模式,难以进行“前置审核”。因此,由 AI 生成的有害内容可能会“逃逸”出内容安全审核机制,对国家互联网防护墙带来巨大挑战。 四是ChatGPT 面临网络和数据安全领域挑战。
有专家提醒,当前ChatGPT等AICG程序难以区分虚拟情绪与真实表达,数据训练常出现偏误,对信息安全的影响不容忽视。网络安全方面,业界已出现对 ChatGPT 用于网络攻击的担忧,多家网络安全公司报告证明其可能被用于编写恶意软件,使网络攻防 AI 化。数据安全方面,ChatGPT 以大量未标记数据训练模型为基础,开发者需重视数据安全保护工作,应当注意遵守国家数据法规、做好授权工作,同时做好数据库的管理维护,避免非合规的访问和流通。 五是ChatGPT 等应用或面临一定的科技伦理争议。