一直以来,技术发展伴生的安全挑战、迭代防护,贯穿着行业发展始终,也备受各界关注。大会期间,多位院士,中国互联网协会、中国信通院、世界互联网大会等机构组织负责人,以及国内外企业代表齐聚,围绕“打造安全大模型”主题,分享来自政产学研用领域的各方观点。

001.jpg

“ChatGPT问世不到一年,科研前沿就有了风险预警。它是典型的两用性技术,具有双刃剑特性,人们担心技术发展失控、道理伦理失范、网络安全失守。”吴世忠谈到这样一组观察体会——近年来,美国人工智能公司“开放人工智能研究中心”(OpenAI)等国外行业巨头相继加大安全技术和监管措施的投入,国内诸多企业也在安全研究上布局投资。这说明,大模型能力增长需要安全研究快速跟进,这已成为业界共识。

在业界看来,当前AI的发展存在诸多不足。“生成式AI存在‘幻觉’缺陷,它会‘胡说八道’,很多情况下还并不知道自己说错了。它和机器产生的错误不一样,后者往往我们可以控制,但前者是本身的错误,是一定会发生且不可控的。这是开发应用中需要重点考虑的问题。”中国科学院院士、清华大学计算机系教授张钹说。