作为2023年第六届世界人工智能大会上“最靓的仔”,超过30个大模型的展示着实让科技行业和全社会都看到了大模型所具备的巨大发展动能,如今不具备点大模型能力,都不好意思说自己是科技公司了。


(资料图片)

作为新兴的技术领域,“低头快跑”的确是不少企业首先要思考的问题,毕竟只有跑得更快更远,最后才能活下来。但是与此前其他技术有所不同的是,在生成式AI上,用户的输入再到大模型的检索和输出,无一不是AI在数据和内容层面的一次次“学习”和“交卷”。

是“学好”了还是“学坏”了?答案是对的还是错的?因此与此前众多领先技术快速发展最不用的是,大模型的“安全”问题必定要更早的介入和重视。

在本届世界人工智能大会上,九大“镇馆之宝”中就有来自蚂蚁集团的AI安全检测平台“蚁鉴2.0”。据介绍,“蚁鉴”是业内首个产业级支持文本、图像等全数据类型的AI安全检测平台。蚂蚁集团方面也表示,今年将通过与清华等高校和机构联合科研,全面升级“蚁鉴2.0”,新版本新增了AIGC安全性、AI可解释两项评测能力,可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。

在谈到推出AI安全检测平台的初衷时,蚂蚁集团机器智能部总经理、蚂蚁安全实验室首席科学家王维强就指出,AI未来通用和可信一定是一体两翼,缺一不可的。“蚂蚁在重点研发AI大模型的同时,更加关注AI的可信安全问题。”王维强在接受南方+记者采访时就表示,在蚂蚁集团看来,人工智能的深度应用,不仅对数据、算法、算力提出了更高要求,也对安全、隐私、伦理提出更多挑战。在确保数据安全和隐私保护、健全人工智能伦理与安全的前提下,才能让AI技术真正地释放应用价值。

同样看到大模型安全问题的,还有腾讯。

“基于行业大模型,构建自己的专属模型,也许是企业更优的选项。”在2023世界人工智能大会上,腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生在谈到行业大模型对于企业而言为什么是“更优选项”时,就将“安全”放在了最重要的位置。

汤道生指出,用户对企业提供的专业服务,要求高、容错性低,企业一旦向公众提供了错误信息,可能引起巨大的法律责任或公关危机,因此对于企业而言,用行业大模型可以让内容更安全。此外,行业大模型和模型开发工具可以通过私有化部署等方式,让模型训练更放心,也可以避免员工访问模型时,发生企业敏感数据的外泄,可以保证数据更安全。

所以不难看出,腾讯的行业大模型处处也是在为“安全”着想。特别要说的是,越来越多不同应用场景的AIGC产品,已经是目前企业在布局大模型时遇到的最大安全挑战。

“如果一个厂商要提供一个AIGC能力的话,首先肯定是要严控数据源的真实、无害和可用性。”腾讯安全天御研发工程师周维聪在接受南方+记者采访谈到AIGC内容风控的问题时就指出,如今AIGC会一本正经地胡说八道,背后除了大模型还不够完善外,不排除有“数据投毒”等的安全风险。“这是现在比较大的挑战。”周维聪坦言,现在面对AIGC内容还不够准确的问题,只能构建真实事件库和真实事件知识相关的知识图谱,来满足AI学习时能学到正确的知识。“或者是配合后端的人审。”周维聪为AIGC内容安全给出了“兜底”的解决之道。

安全业内人士给出的建议,是不是与如今大多数人在AI行业发展中所憧憬的未来会有所不同?但是在“安全”的大前提面前,似乎不无道理。

“AIGC极大地扩展了内容生成能力,极大扩展了每个人所能触达的知识领域和创造性,这是好的方面。”在腾讯安全内容风控产品经理李镐泽看来,创造性虽然很有需要,但是也要在一定的框架之内。“比如说不能去踩内容底线,不能有虚假信息,也不能有个人隐私的侵犯,AIGC延展内容生成和创造性的同时,我们也要去控制延展的范围,其实是需要达到一个平衡。”

(文章来源:南方Plus)

推荐内容