正在阅读:

AIGC时代到来,保证数据和内容安全成为重中之重|WAIC观察

扫一扫下载界面新闻APP

AIGC时代到来,保证数据和内容安全成为重中之重|WAIC观察

“对于人工智能的进展不能进行过度渲染,过度渲染和承诺只会给人工智能发展带来更多的阻力和风浪。”

图片来源:图虫创意

界面新闻记者 | 佘晓晨

生成式人工智能AIGC(Artificial Intelligence Generated Content)让人们看到了未来世界AI的无限潜力但在技术成果涌现之时,内容和数据的安全问题也第一次变得格外重要

在2023年世界人工智能大会期间举办的AIGC新浪潮论坛上,中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅提出观点称,“对于人工智能的进展不能进行过度渲染,过度渲染和承诺只会给人工智能发展带来更多的阻力和风浪。”

曾毅在大会现场演示了关于人工智能发展的案例他表达的结论是人工智能技术并非中立基于人类训练的AI,它可以习得社会的偏见、仇恨,甚至是歧视这也是我们为什么要进行可信人工智能、人工智能伦理研究

他表示,我们应该明确区分人工智能与人类的界限。曾毅解释称,负责任的人工智能首先要进行环境的交互与意图的理解,在这个基础之上,在伦理的框架下,在具有内部和外部安全的情况下进行问题的求解。我们现在看到的很多人工智能只是问题求解器,这也是现代人工智能离我们真正期待的通用人工智能之间的巨大距离。

因此曾毅认为,我们在用生成式人工智能进行创新的时候,不仅要讨论机遇,不能只看法律限制的情况下红线是什么。“在一些问题上AI没有触犯法律,但是它违反了社会伦理道德,我们也不应该去做。”

事实上,一些“约束”的确正在发生。今年4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》)公开征求意见的通知是国家首次针对生成式人工智能产业发布规范性政策

除了政策上的管理技术的支撑同样被需要在AI公司投入大模型的同时不少技术公司加速开发保证数据和技术安全的产品从根源上加强人工智能的安全性

在今年的人工智能大会上蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”。蚁鉴2.0可实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科技伦理三大类风险,覆盖表格、文本、图像等多种数据和任务类型

“蚁鉴2.0”落地于产业,论坛上展示的另一项技术则针对C端用户用以辨别AIGC和真实记录去年的人工智能大会上,AI公司合合信息首次展示“PS篡改检测”技术。今年升级后的AI图像篡改检测技术可检测转账记录、交易记录、聊天记录等截图,无论是从原图中“抠下”关键要素后移动“粘贴”至另一处的“复制移动”图片篡改手段,还是“擦除”、“重打印”等,图像篡改检测技术均可识别出来

从产品端延伸出来的话题是支撑AI安全的底层技术如何在当下这一阶段释放出更强大的力量。作为保证数据流转安全性的技术手段之一隐私计算发展到今天也到了加速应用的拐点时刻

蚂蚁集团副总裁兼首席技术安全官韦韬在WAIC期间的数据要素与隐私计算高峰论坛上提到前些年隐私计算在金融、保险、政务、医疗、供应链、能源等很多方面有应用,但这些应用非常浅80%以上是基于PSI,是隐私计算领域最简单的应用;其次占据百分之十几的线性统计,真正的树模型很少,做BI分析和深度学习模型的更少。

原因在于现在的隐私计算的技术门槛太高,很多行业对隐私计算创业公司的需求是做传统的数据ISV工作但想要真正支持全行业的数据流转发展,就得把隐私计算技术的门槛降下来。

韦韬认为其中的必经之路就是把隐私计算变成密态计算即服务,通过各种基础设施提供这种服务。通过这种技术支持,对小微企业提供密态SaaS服务,为行业提供支持解决会用、易用的问题

锘崴科技创始人、董事长王爽教授在大会期间的一场圆桌论坛上谈到在大模型时代,隐私计算技术能够大幅降低大模型的隐私信息泄露风险,可以结合多种技术路线保证数据不出本地的情况下完成高效的计算,保证模型在安全计算环境中的运算能力,并在不影响模型效果的情况下提高模型的安全性。 

王爽教授解释称大模型可以分成两部分,一部分是通用化的模型,可以基于一些公开的数据集进行大模型的训练;但真正要应用到某一个领域的时候,需要进行模型的微调才能够提供更精准的结果。

以医疗领域为例在模型微调的过程当中需要利用大量高敏感的患者隐私数据,这些数据直接用于训练会产生很多潜在的风险。另一方面,为了确保生成结果的准确性,需要结合专业的医学领域知识库进行过滤,同样需要应用隐私计算技术,结合多元知识库来提高模型精确度。

正如特斯拉CEO埃隆马斯克在今年人工智能大会开幕式上所说我们要对深度的、全面的人工智能保持谨慎态度

今年世界人工智能大会期间,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起《AIGC可信倡议》。该倡议围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架,采用安全可信的数据资源、技术框架、计算方法和软件平台等全面提升AIGC可信工程化能力,最大限度确保生成式AI安全、透明、可释。

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

AIGC时代到来,保证数据和内容安全成为重中之重|WAIC观察

“对于人工智能的进展不能进行过度渲染,过度渲染和承诺只会给人工智能发展带来更多的阻力和风浪。”

图片来源:图虫创意

界面新闻记者 | 佘晓晨

生成式人工智能AIGC(Artificial Intelligence Generated Content)让人们看到了未来世界AI的无限潜力但在技术成果涌现之时,内容和数据的安全问题也第一次变得格外重要

在2023年世界人工智能大会期间举办的AIGC新浪潮论坛上,中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅提出观点称,“对于人工智能的进展不能进行过度渲染,过度渲染和承诺只会给人工智能发展带来更多的阻力和风浪。”

曾毅在大会现场演示了关于人工智能发展的案例他表达的结论是人工智能技术并非中立基于人类训练的AI,它可以习得社会的偏见、仇恨,甚至是歧视这也是我们为什么要进行可信人工智能、人工智能伦理研究

他表示,我们应该明确区分人工智能与人类的界限。曾毅解释称,负责任的人工智能首先要进行环境的交互与意图的理解,在这个基础之上,在伦理的框架下,在具有内部和外部安全的情况下进行问题的求解。我们现在看到的很多人工智能只是问题求解器,这也是现代人工智能离我们真正期待的通用人工智能之间的巨大距离。

因此曾毅认为,我们在用生成式人工智能进行创新的时候,不仅要讨论机遇,不能只看法律限制的情况下红线是什么。“在一些问题上AI没有触犯法律,但是它违反了社会伦理道德,我们也不应该去做。”

事实上,一些“约束”的确正在发生。今年4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》)公开征求意见的通知是国家首次针对生成式人工智能产业发布规范性政策

除了政策上的管理技术的支撑同样被需要在AI公司投入大模型的同时不少技术公司加速开发保证数据和技术安全的产品从根源上加强人工智能的安全性

在今年的人工智能大会上蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”。蚁鉴2.0可实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科技伦理三大类风险,覆盖表格、文本、图像等多种数据和任务类型

“蚁鉴2.0”落地于产业,论坛上展示的另一项技术则针对C端用户用以辨别AIGC和真实记录去年的人工智能大会上,AI公司合合信息首次展示“PS篡改检测”技术。今年升级后的AI图像篡改检测技术可检测转账记录、交易记录、聊天记录等截图,无论是从原图中“抠下”关键要素后移动“粘贴”至另一处的“复制移动”图片篡改手段,还是“擦除”、“重打印”等,图像篡改检测技术均可识别出来

从产品端延伸出来的话题是支撑AI安全的底层技术如何在当下这一阶段释放出更强大的力量。作为保证数据流转安全性的技术手段之一隐私计算发展到今天也到了加速应用的拐点时刻

蚂蚁集团副总裁兼首席技术安全官韦韬在WAIC期间的数据要素与隐私计算高峰论坛上提到前些年隐私计算在金融、保险、政务、医疗、供应链、能源等很多方面有应用,但这些应用非常浅80%以上是基于PSI,是隐私计算领域最简单的应用;其次占据百分之十几的线性统计,真正的树模型很少,做BI分析和深度学习模型的更少。

原因在于现在的隐私计算的技术门槛太高,很多行业对隐私计算创业公司的需求是做传统的数据ISV工作但想要真正支持全行业的数据流转发展,就得把隐私计算技术的门槛降下来。

韦韬认为其中的必经之路就是把隐私计算变成密态计算即服务,通过各种基础设施提供这种服务。通过这种技术支持,对小微企业提供密态SaaS服务,为行业提供支持解决会用、易用的问题

锘崴科技创始人、董事长王爽教授在大会期间的一场圆桌论坛上谈到在大模型时代,隐私计算技术能够大幅降低大模型的隐私信息泄露风险,可以结合多种技术路线保证数据不出本地的情况下完成高效的计算,保证模型在安全计算环境中的运算能力,并在不影响模型效果的情况下提高模型的安全性。 

王爽教授解释称大模型可以分成两部分,一部分是通用化的模型,可以基于一些公开的数据集进行大模型的训练;但真正要应用到某一个领域的时候,需要进行模型的微调才能够提供更精准的结果。

以医疗领域为例在模型微调的过程当中需要利用大量高敏感的患者隐私数据,这些数据直接用于训练会产生很多潜在的风险。另一方面,为了确保生成结果的准确性,需要结合专业的医学领域知识库进行过滤,同样需要应用隐私计算技术,结合多元知识库来提高模型精确度。

正如特斯拉CEO埃隆马斯克在今年人工智能大会开幕式上所说我们要对深度的、全面的人工智能保持谨慎态度

今年世界人工智能大会期间,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起《AIGC可信倡议》。该倡议围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架,采用安全可信的数据资源、技术框架、计算方法和软件平台等全面提升AIGC可信工程化能力,最大限度确保生成式AI安全、透明、可释。

未经正式授权严禁转载本文,侵权必究。