博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
神仙阵容!张钹、高文、杨强同台论道“AI精度与隐私的博弈”
阅读量:2243 次
发布时间:2019-05-09

本文共 2714 字,大约阅读时间需要 9 分钟。

在过去十年,AI以大数据为驱动,给人类带来了前所未有的便利。但是,数据泄露、隐私丢失等问题也日益严重。

在AI时代,大众真的“无隐私”吗?以“联邦学习”为代表的新兴AI技术能否实现AI协作,提升模型精度与数据的隐私保护?中国如何抢占人工智能安全发展的制高点?下一个十年里,人工智能将会何去何从?

针对上述问题,AI Time联合北京智源研究院,邀请张钹院士、高文院士、杨强教授、唐杰教授、刘知远副教授进行了第15期论道,共同探讨“AI精度与隐私的博弈”

5月29日,《Science》刊登了题为“人工智能某些领域的核心进展一直停滞不前”的文章,文中提到:一些多年之前的“老算法”如果经过微调,其性能足以匹敌当前的SOTA。

当下,AI面临的困境是什么?看完下面这个短片,你也许对此出一个初步的了解。

目前,国外以“欧盟的 GDPR”为代表的相关法律法规以及国内的相关法律规定都取得了长足进展,隐私计算技术也出现了三大主流门派。

少林派

关注安全多方计算,主要依靠技术秘密分享、不经意传输、混淆电脑等技术。

武当派

关注联邦学习技术。

华山派

关注安全屋、可信计算环境等技术。

联邦学习是什么?它的技术原理如何?下面这个短片也许可以给你一点启发。

了解完相关技术,就让我们一起看看各位大咖碰撞出了什么火花吧!

数据隐私之忧

提升模型精度是否一定意味着牺牲隐私保护?美国多地禁止人脸识别,重视隐私保护是否阻碍人工智能发展?对AI应用的用户隐私与数据安全的担忧是杞人忧天还是未雨绸缪?如何处理好发展AI技术(比如提升模型精度,实现认知智能)与人的关系?

隐私的定义是什么?隐私的范畴在哪里?AI与隐私的关系是什么?张钹院士从隐私的定义出发,从AI制度和AI技术手段两方面入手,指出了保护隐私应该坚持的发展方向、具体措施。

隐私是一个相对的概念,隐私保护是一个社会学范畴内的问题,高文院士指出在目前的阶段,相关法律制度还不健全,因此,完善相关的法律法规、政策制度,出台侵犯隐私的惩罚措施等都是非常重要的内容。

隐私一直以来是AI的短板,因为深度学习离不开大数据,但数据量的增加会导致侵犯隐私的威胁也在增加。在此背景下,杨强教授分享了瑞典政府对GDPR的看法和思路:严格的隐私保护法规是动力,会激励保护隐私的技术及早出现,并帮助欧洲在技术领域领先。

技术突围之道

针对用户诉求、国家监管需要,以联邦学习为代表的AI新技术能否解决大数据AI协作与数据隐私保护之间的矛盾?这些技术的优势与局限性有哪些?如何让更多人参与到这些技术创新中来,开源?激励机制?

技术流派应该百花齐放,整个社会应该重视诚信。高文院士认为:第一,各家应该努力去寻找最好的技术,让隐私得到最好的保护。第二,根据我国技术和社会发展现状,如果想让技术和社会和谐快速发展,隐私得到很好地保护,诚信是非常重要的内容。此外,开源在技术发展中具有重大价值,需要特别关注。

为什么要保护隐私?张钹院士先提出了这个关键问题,之后开始详细阐释了隐私保护的目的,并就东、西方价值观的差异引申出了我国隐私保护的核心问题——不滥用个人信息。避免滥用有两个方面,一方面是制定法律、规则,限制滥用行为;另一方面是发展安全、可靠、可信赖、可扩展的AI技术。

联邦学习的基本思想是:数据不出本地,模型得到更新。基于此,杨强教授详细剖析了传统的数据处理、模型训练方式和联邦学习中数据处理、模型训练方式的异同,指出了联邦学习的优势、对抗机制,及其在企业之间应用的实例。

下一代人工智能

面对现有的困境与桎梏,下一代AI技术应该具备哪些特点?我们如何抢占制高点?人与AI如何更好地协作,创造更大的价值?

下一代AI首先要考虑人,要考虑人与机器的协作,要考虑人的利益,基于此认识,杨强教授指出下一代AI中可解释性是非常重要的,同时,要了解如何将人类的智慧赋予机器,让机器站在人类的肩膀上学习。针对相关问题,杨强教授号召研究者选问题时要从很新、很难、容易解释的角度切入

对于可解释性是第一位的观点,高文院士表示认可,并补充指出AI的高效能也是非常重要的一点。对比人脑,现有AI系统的效能还不够高,根据鹏城实验室的实际工作来看,AI精度超过人类的代价很大。对此,研究者应该去做其他人没有做过的东西,尝试让机器对知识有继承。

AI的最终目标是什么?我们现在做了哪些事?张钹院士以此为出发点,指出了目前我们沿着符号主义、连接主义已经取得的成就,并一针见血地指出现有AI的发展还处于序幕阶段,没有解决符号基础问题,没有涉及智能的根本问题,现有AI系统不安全、不可靠、不可解释、不容易扩展。对此,我们只有加强AI相关基础研究,具体到我们国家,我们其实已经有条件去做这件事了,但是路程还很漫长。

对于基础研究,张钹院士认为落脚点还是发表论文。目前,我国的基础研究已经取得长足进步,基础研究的平均水平达到了世界一流水平,但是最高水平与世界一流水平还存在差距,我们要在制度、体制上创新,鼓励、支持研究者探索新领域,勇于面对失败,能够经得起失败。

总结与展望

近期,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,针对AI的下一个十年,三位专家也给出了自己的总结与展望。

AI的治理问题非常重要,张钹院士认为只有把AI智力问题想清楚了,才能看清技术的发展方向,清楚自己该做什么工作。

发展AI是为了造福人类社会,高文院士提出要综合考虑技术发展、社会影响与成本。

AI的发展引起了全社会的关注,进而引出来了越来越多的限制和要求,如隐私保护等。杨强教授认为这些要求孕育了新的机会,引出了新的研究课题,有志向的研究者要勇于踏进新的技术领域,开创新的局面。

为了感谢各位小伙伴的支持,AI Time特别准备了三本《联邦学习》中文版纸质书,欢迎大家转发文章、抽取图书。

AI Time欢迎AI领域学者投稿,期待大家剖析学科历史发展和前沿技术。针对热门话题,我们将邀请专家一起论道。同时,我们也长期招募优质的撰稿人,顶级的平台需要顶级的你,请将简历等信息发至yun.he@aminer.cn!

微信联系:AITIME_HY

AI Time是清华大学计算机系一群关注人工智能发展,并有思想情怀的青年学者们创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,加强思想碰撞,打造一个知识分享的聚集地。

更多资讯请扫码关注

(点击“阅读原文”下载报告ppt)

(直播回放:https://space.bilibili.com/503316308/video)

转载地址:http://tlgbb.baihongyu.com/

你可能感兴趣的文章
Oracle Spatial操作geometry方法
查看>>
IDEA类和方法注释模板设置(非常详细)
查看>>
Java程序初始化的顺序
查看>>
Dubbo和Spring结合配置文件内容解析为bean的过程
查看>>
fastJson注解@JSONField使用的一个实例
查看>>
fastjson的@JSONField注解的一点问题
查看>>
fastjson使用(三) -- 序列化
查看>>
浅谈使用单元素的枚举类型实现单例模式
查看>>
Java 利用枚举实现单例模式
查看>>
Java 动态代理作用是什么?
查看>>
Java动态代理机制详解(JDK 和CGLIB,Javassist,ASM) (清晰,浅显)
查看>>
三种线程安全的单例模式
查看>>
Spring AOP 和 动态代理技术
查看>>
从 volatile 说起,可见性和有序性是什么
查看>>
如何开始接手一个项目
查看>>
Netty 5用户指南
查看>>
Java实现简单的RPC框架
查看>>
一个用消息队列 的人,不知道为啥用 MQ,这就有点尴尬
查看>>
从零手写RPC
查看>>
高并发和多线程的关系
查看>>