当前位置:资讯 > 金融 > 正文
今日热文:如何与AI应用“和谐相处”?多项技术亮相2022世界人工智能大会
2022-09-03 16:28:42 来源: 封面新闻

封面新闻记者 张越熙

伴随着人工智能应用的深入,其自身的技术缺陷以及带来的决策偏见、使用安全等问题引发了信任危机,可信成为大家关注焦点。而构建可信人工智能,解决人工智能应用中出现的信任等问题,就成为缓解和消除这些担忧的必然选择。


(资料图片)

9月3日,多项重要技术在2022世界人工智能大会,记者带你聚焦前沿技术融合新动向。

隐语开放平台全球首发

支持低代码调用隐私计算技术

2022世界人工智能大会(WAIC)可信隐私计算高峰论坛上,蚂蚁集团发布可信隐私计算“隐语开放平台”,面向全球用户开放,可无需调用和开发代码,直接使用产品功能,帮助用户低成本探索隐私计算应用场景。

在人工智能大规模数据流转中,守护数据安全与用户隐私是数字化的基石。可信隐私计算被认为是解决这一问题的支撑性技术。如何将隐私计算产品功能以简单易部署、低成本的方式推广到更多场景和更广泛的生态,一直是行业共同面临的挑战。

在此背景下,继7月开源“隐语”可信隐私计算框架之后,隐语开放平台发布。用户可选择无需调用和开发代码,直接使用的产品功能的“白屏”模式,也可自主选择调用代码,灵活组装功能的“黑屏”模式。隐语框架与隐语开放平台,前者可理解为灵活组合的代码“素材包”,后者则提供了打包好的“拎包入住”式服务。

隐私协作平台FAIR 升级

亿级数据安全匹配能力提升10倍以上

众所周知,在金融风控、联合营销、医疗健康等场景中,往往涉及到频繁、大量的多方数据计算任务,能否快、准、安全地算出结果,直接影响着业务的协作效率。

记者了解到,本次大会上,隐私协作平台FAIR宣布整体架构升级,FAIR兼容全类型隐私计算选型,目前已经实现与隐语、FATE等隐私计算开源框架以及摩斯等隐私计算系统的对接互通。这意味着用户可以在单个平台上自主调用多方安全计算、联邦学习、可信执行环境等多个隐私计算组件,来满足多参与方的数据安全、高效协作计算和流转的场景需求。

具体来讲,它可以解决数据流转过程中“可用不可见”,以及多方协作之间的数据权属和真实性等问题,实现数据流转由隐私计算引擎来解决,并通过区块链技术确权,登记和交易共识。在数据共享过程中有效保护个人信息,实现全流程可记录、可验证、可追溯、可审计。

“蒲公英”人工智能治理开放平台

亮相2022世界人工智能大会

为系统解决规则落地难、软硬研究分离、治理碎片化等问题,保障人工智能健康可持续发展,由上海人工智能实验室治理研究中心联合清华大学、复旦大学合作团队共同发起了“软硬结合”的蒲公英人工智能治理开放平台——OpenEGLab。

目前,国际上尚少见规则和技术双轮互动的治理体系性平台。最新亮相的“蒲公英”OpenEGLab,目标是打造系统、实用的人工智能伦理与治理基础设施,探索“规则-技术-场景-评测”一体协同的人工智能治理体系。

平台目前支持36种常见视觉和语言模型的交互分析,致力于推动探索规则和技术紧密结合、互相促进的人工智能治理研究。评测框架则旨在对常用人工智能模型进行多维度评测。

国家新一代人工智能治理专业委员会主任薛澜教授表示:“希望能在平台上持续积淀治理创新成果和工具,促进人工智能治理理念的落地,服务提升人工智能治理效率,共促人工智能可信、可持续发展。”

关键词: 人工智能
责任编辑:zN_0352