AI人工智能方面的输出成果我爱编程

干货整理|第二届“人工智能与未来社会”高峰论坛_AI游学小分队

2018-02-02  本文已影响24人  曰月德

前言:上周五(12月8日),上海社会科学界联合会举办了第二届“人工智能与未来社会”高峰论坛;下面,是咱们“AI产品经大本营-游学小分队”驻上海团友@曰月德 发回的现场干货总结(鼓掌)~

现场PPT & 录音链接:https://pan.baidu.com/s/1geFWhiV 密码: 5eq8

一、第一届“人工智能与未来社会”高峰论坛的回顾

嘉宾:华东政法大学政治学研究院院长@高奇琦 教授

第一届人工智能峰会的回顾和延伸:

1、上海交通大学电子信息学院@熊红凯 教授完全从技术角度来讲人工智能发展:

1)最大的问题是两大块,一个是基于数据的,一个是基于知识的;

2)神经网络的不可解释性,是未来人工智能最大的风险。

2、AI专业领域最前沿的一位学者@王飞跃教授,介绍了3个IT3个世界

1)平行技术时代:老IT对应的是工业时代,旧IT对应的是信息时代,新IT对应的是智能时代。

2)五张网理论:交通网+能源网+信息网+物联网+智联网

3、@顾骏教授的观点比较悲观:人工智能的本质s是无机智能,最后无机智能要取代有机智能

注:第一期内容详见下载资料探索与争鸣2017年第10期人工智能与未来社会专刊(新)

主题一:人工智能与现实世界

二、人的神性与AI的魔性

嘉宾:武汉大学计算机学院@蔡恒进 教授

1、人的认知源于对“自我”和“外界”的区分

2、认知坎陷定律:人通过坎陷认知世界,也通过坎陷改造世界

抽象地理解,坎陷世界能够操控原子世界,并变得越来越强大,但却不能依赖上帝或天的存在来为其前途负责。

人类在人工智能时代面临的关键问题:不止是个体意识之“心”和群意识之“心”间的冲突与和解,更要为机器立“心”

3、“我”的嵌入与无限(人创造了“无限”的概念)

虽然永远见不到“无限”,但是“无限”的存在性毋庸置疑。

它在我们思考问题、做数学运算的过程中都起到不可替代的作用。

4、总结:人类能够发现新的规则。机器在人类给定的规则下,能够表现出比人类更优秀的计算能力。

主题二:人工智能与自然科学

三、人工智能带来的冲击及其局限性

嘉宾:中科院上海微系统与信息技术研究所研究员@张晓林

1、人工智能的第三次浪潮真的是“狼来了”,对社会方方面面产生很大影响。并认为目前的人工智能其实是一种自编程计算机

2、AI的本质

机器学习的两个必要条件:足够的信息判断结果是否被改良的标准

从这个意义上讲宇宙万物都是智能系统。但计算机很难模拟大自然,机器智能最终一定会回归大自然

3、类脑智能研发的思考:生命科学正处在转折期

三、社会大脑调控下的构建人机和谐社会的可控性与控制点探讨

嘉宾:浙江大学科学技术与产业文化研究中心@张为志 教授

1、不管社会大脑准不准确,需要警惕两种思维:大工业社会时的技术d思维(避免犯同样的错误)+以人类为中心的思维

2、社会大脑与新全球化。

机器智慧体系:仍以自然人为主,只不过是借助工具,在此过程中会涌现出新的事物——机器智慧

比如阿尔法狗,打败500个人产生新的算法,并进行集成、优化,最终会形成人机混合的智慧。

3、两个智慧的发展路径:“人脑自然人意识产生路径”+“社会大脑机器智慧产生路径”

4、人的生物脑和社会脑是两个脑:

生物脑不是以知识积累为基础,而社会脑则是基于社会海量知识的。

我们的社会大脑正在形成,形成路径不同于生物脑,但最终能够突破生物脑

5、强调成立AI伦理委员会的必要性,应重点关注如何让机器大脑的集体向善问题。

主题三:人工智能与未来社会

四、人工智能叙事与未来想象

嘉宾:华东师范大学中文系@王峰教授

1、(科幻)叙事的想象有三个层次:近景想象中景想象远景想象

2、离我们最近的想象不一定是近景想象,可能是远景想象

3、近景想象:技术进步的加速度

以机器人索菲亚拿到公民权利为例子,建议不要轻视这一现象,因为这是未来发展的一个信号。人工智能发展过程中,人在不断改变技术、周围状况,但还需要改变自己的观念去接受它

4、总结:

1)从叙事角度论述知识更为深刻;

2)人当下的焦虑体现在远景想象中;

3)人死了才得以重生。

五、人工智能应用的伦理控制

嘉宾:复旦大学哲学院@徐英瑾 教授

1、人工智能并没有取得科学上的巨大进步,有成就都是历史上积累的,AI目前的泡沫体现在对AI的高预期和理论基础薄弱之间的张力。

2、AlphaGo的胜利并不值得庆贺。比如下棋和踢球就是不同的情况,因为踢球会遇到很多随机性事件,而智能机器很难处理这些随机性事件。

3、人工智能发展的四层次当前人工智能的发展并没有吸收语言学、哲学等学科发展的成果,最后只剩下工程学,是有缺陷的。

4、未来AI可能会发展出自己的语言(人类无法理解)

因为双方的体型不一样,可能发展出不同的文学隐喻。(比如对风的感觉不同)

为了让机器更好地理解人,将来的机器人必须是类人机器人,但要比人类弱,以确保人类的安全。

问答环节:

1、近些年人工智能都是工程驱动,用伦理哲学等理论去驾驭它是否合适?

徐英瑾教授:未来控制整个人工智能伦理的要点并不是担心它越来越聪明,而是担心它不够聪明。我们需要担心是恰恰是不要让它与更强的物理接触,这样就会导致人与智能机器之间实力的失衡。比如,我们可以把很聪明的人工智能装在大白这样的外壳中,这样它们就很难对我们造成伤害。

2、 人工智能属于真正的智慧么?

沈湘平教授:人工智能信息处理快稳准,不是真正的智慧。人工智能快速准确的做事,只能算聪明。但是如何做好事、做善事,符合真善美,这是真正的智慧。人工智能再发展,也不可能预测人类社会未来的走向。

以阿尔法狗下围棋为例,它能下赢。可是它知不知道这盘棋不应该下赢,比如跟领导下棋。

3、 蔡恒进教授关于人工智能泡沫的观点:

90年代美国互联网泡沫,现在很多都实现了。

真正的创造是靠普罗大众,但不可否认前期也会有一些学者具有远见并开始讨论。

主题四:人工智能与实践实用

六、人工智能与人的未来

江西财经大学@黄欣荣 教授

1、人工智能的火爆走向两个极端:产业界过分乐观+人文社科界过分悲观

2、其它比人厉害的东西有很多(比如动物、机器等),为何人工智能的出现被认为有威胁?

担忧人工智能的发展是基于错误的逻辑假设,把机器人和人对等,两者处于完全平行的位置,从而造成错误的结论。

人工智能即使有智能,也不会有七情六欲。比如不同国家不同阶级会为利益争斗会相互倾轧,人工智能则不会。而现实情况中,很多人把人类社会利益纠纷,投射到人与人工智能之间的关系上。

机器不一定会有人的自私性和情感,所以它跟人类不一定完全对立

、法律人工智能建模的基础问题

嘉宾:中山大学哲学系@熊明辉 教授

1、怎样用人工智能为法律、伦理服务

2、“法律三段论”:

传统情况:由法律规范和案例事实到裁判结果,以事实为根据,以法律为准绳。

当前司法改革,改的就是审判中心主义,要把裁判结果改为法律结论。

因为裁判过程中给出证据不一定就等于给出事实,其中有一个推理过程,这是建模过程中需要注意的问题。

传统过程忽视从证据到事实之间的推理,得出的结论就是不可靠的,所以需要对法律推理进行扩充

3、“法律五段论”:要从法律规范到规范解释、从法律证据到案件事实,最后才是法律结论集。

、论坛总结@高奇琦

1、第一个问题:要不要发展AI

发展的三个阶段:跟跑、并跑、领跑。

中国第一次走到世界的前面。

此外,十九大报告提出的宏大理想,提出建设创新型国家,人工智能是很重要的支撑。

2、第二个问题:发展AI的风险有多大

非常大。

依次是技术风险(算法黑箱、算法独裁)>社会风险(失业)>伦理风险(隐私)。

3、发展AI三种风险的应对

技术风险:走神经网络与知识图谱合力的路,基于数据的AI和知识的AI同步进行;

社会风险:一是党 领导一切;二是党的领导与以人民为核心的发展理念结合;

伦理风险:一定要对未来有重大风险的事物划出红线。 

以上内容,来自饭团“AI产品经理大本营”,点击这里可关注:http://fantuan.guokr.net/groups/219/ (如果遇到支付问题,请先关注饭团的官方微信服务号“fantuan-app”)

上一篇下一篇

猜你喜欢

热点阅读