您当前的位置: 电商新闻网 > 资讯 > 正文
电商新闻网-移动版 首页

复旦EMBA邀徐英瑾教授从哲学的视角探讨人工智能的发展

2020-08-04 11:51
分享到:

作为对管理学专业课程的补充,"君子知道"复旦大学EMBA人文商道讲堂秉承"商道人文,融汇贯通"的目标,让学生从人文中汲取力量,拥有大智慧、大视野、大情怀。"君子知道"人文商道讲堂依托复旦大学强大的师资力量,遍邀名师,为EMBA学生校友分享商道、人文和政经等热门话题。

近日,"君子知道"复旦大学EMBA人文商道讲堂特邀复旦大学哲学学院教授、博导、教育部长江青年学者徐英瑾从哲学的视角讲述人工智能的发展。徐英瑾教授认为:现在的人工智能不是根据心理学所规定的发展方向来发展的,所以它的"拟人性"还很成问题。通用人工智能目前还达不到能够应用的阶段,但这是可以追求的,而且在某种意义上是必须追求的一件事情。

复旦大学哲学学院教授、博导,教育部长江青年学者。主要研究领域为人工智能哲学,知识论,认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届"科史哲青年著作奖"。

以下为根据讲座整理的主要内容。

我们谈论这个话题,有一个背景,那就是,公众对人工智能有很高的期望。这其中,很多期望是建立在对学界实际发展状况的误解上。比如认为人工智能是个新东西,是这几年冒出来的。事实上,"人工智能"(artificial intelligence)正式变成公认的学科名词是在1956年美国的达特茅斯会议上。显然这是距今很久远的事情了。至于现在被谈论很多的深度学习技能,前身就是人工神经元网络(artificial neural network)。这个概念20世纪60年代就被学界注意到了。人工智能的奠基人之一阿兰·图灵生前也搞过一些粗浅的人工神经元网络研究,这样算的话,这个技术至少可以追溯到20世纪40年代了。所以,人工智能的主流技术其实并不新,它是经过传统技术的反复迭代而来的。

AI技术的现状:理想丰满,技术骨感

对AI技术,主要有三种论断。有人持乐观论,认为AI的发展一定能够在短时间内解决我们面临的各种问题。这种论调描绘了一个乌托邦场景:回到家中,所有的设备都能够通过5G网络和物联网与你心有灵犀。汽车是不用驾驶的,上了车啥事都不用干就可以把你带到目的地。

另一种是悲观论,表面看上去这和乐观论背道而驰,实际上底层逻辑是一样的。他们都认为,人工智能能够消灭很多人的工作。只是,持有乐观论的是站在顶层的人,他们本身就拥有财富、权力和资本,所以员工解散了不要紧,企业还是我的,我照样赚钱。悲观论者更多站在那些被裁掉的人的立场,认为AI会对人类构成巨大威胁,甚至有可能带来人类的灭绝。

我的观点是泡沫论。"泡沫"不是指AI的未来一片黯淡,而是说在短期内,这项技术的发展无法匹配很多人的梦想。理想很丰满,技术目前还很骨感。如果你意识不到两者的差距,就会导致泡沫。

假如因为对AI持有乐观态度而到市场上去融资,那就需要谨慎考虑。历史上有成功的案例,比如IBM360计算机项目,但也有很多失败的案例。许多关于AI的融资计划都把未来描述得很好,饼画得特别大,但最后很有可能会黄掉。

AI对我们生活的改变不是全局性的、颠覆性的,而是局部的改进。如果怀着颠覆人们生活的期望去投资项目,那十有八九会失败。AI在网络教育里的作用,在养老陪护上的作用等,我认为会有一些商机。但有些项目比如自动驾驶,就有很多泡沫。

使用传统方法解决问题的能力在下降,这是危险的

我自己主张的泡沫论是建立在一些基本概念界定的基础上的,比如"专用人工智能"和"通用人工智能"。专用人工智能就是只能干一件事或两件事的机器,而通用人工智能就是啥事都能干。我举个例子,李世石是一位棋手,但是AlphaGo是一个围棋程序。如果我们把李世石看成一个智能系统的话,他就是通用智能系统。因为他还能做许多其他事情,比如他应该会泡面,会开车,他还会在和AlphaGo下完棋以后接受媒体采访,谈谈感受。但是AlphaGo肯定不会开车,也不能在和李世石下完棋以后和媒体谈谈它的感受。人类的特点是,你在一件事上可能是专家,其他事情也能干,只是干得没那么好。李世石开车肯定没有韩寒好,这就是专用人工智能和通用人工智能的区别。

我们现在看到的人工智能都是专用的,它们的制作思路都是按照专用的思路来做的。比如人脸识别和语音识别,现在人工智能通过卷积神经元网络技术的进步,已经获得了一个极大的能力。一个人可以同时通过人脸和声音识别他人,但对于人工智能来说,图像识别的神经元系统和语音识别是两回事。

《西部世界》剧照

但现在人们对人工智能的想象又是建立在通用人工智能之上的,这是一件很麻烦的事。很多人可能看过美剧《西部世界》,它是以美国西部的环境作为外景地拍摄的。里面出现的机器人都特别厉害,他们都有了人类的特征,就开始反抗人类。有人看了就会脑补,如果我们和机器人一起生活,会受到怎样的威胁?很多人对人工智能的思考就是建立在这类科幻电视之上的。科幻影视作品受众广,不需要具备多少科学素养,都能看明白。

我自己有一个观点,软科幻看多了,要看一些硬科幻。硬科幻距离今天的科学很近,比如《火星救援》。硬科幻可以起到科普的作用,能够增强你对现实世界的把握能力。现在的人工智能都是基于大数据的,它对小概率和偶然性事件缺乏应对机制,所以面对这个充满变动的世界,我们都不知道如何应对了。比如,一种新型病毒、未知规模的洪水。

所以问题不是人工智能有了人的意识以后与人对抗,而是我们过多依赖人工智能以后,脑袋变蠢了。前不久我参加了一个在上海举办的论坛,一位外国人工智能专家介绍他们与警方合作,用大数据来监测可能发生的犯罪。看了以后,我心里就犯嘀咕,假设一个糟糕的状况,某个掌握大数据的警察变节了,他要做坏事,其他人是没有办法的。因为那么多年来警察办案都习惯于调监控,然后对录像进行分析,一旦这些数据都变成虚假的,警察已经无法像以前的福尔摩斯一样用大脑进行思考了。传统的办案"武功"在下降,这个危险相当大。

不要以为有了现代化的东西以后就可以放弃传统。假设我们在和另一个军队打仗,现在都能用5G网络,敌人把我们的网黑了,我们怎么办,只能用信鸽或者鸡毛信,用最原始的方法。如果我们将人工智能的能力想象得很强大,同时又废掉了我们用传统方法解决问题的能力,这可能会将人类置于某种尴尬的境地。

为什么现在我们还发展不出通用人工智能?

现在的"深度学习"技术能够真正到达通用人工智能的程度吗?从哲学角度看,这是不可能的。如果说一件事在哲学上行不通,这是一种很严重的指控,就说明这件事从根本上说就是没戏。比如永动机,在哲学上就是不可能的。

现在我来论证这一点,这里有个大前提、小前提和结论,这是最典型的三段论论证。

AGI(通用人工智能)系统的特点就是通用,既然是通用,就要处理全局性的问题。什么是全局性?就是在不同的理论体系之间进行一个抉择的能力。不同的诉求彼此是有冲突的,你要想办法找到一个中庸点。类似于某家政人员跑到别人家里做事。如果主人是一个知识分子,家里书特别多,他可能会要求书房要打扫干净,但不能干净到书都找不到了。读书的人都知道往往书的易取性和整洁性是相互矛盾的,几本书同时看如果都收起来再找再取就很耗费时间。所以,究竟是追求整洁还是易取?这里面有个平衡点。这个平衡点是不能通过程序来设置的,需要和用户进行磨合。

任何一个综合系统都要有处理各种情况的能力。其中有些情况是非常极端的,比如自动驾驶汽车,道路的左边有一个人,道路的右边有五个人,车速太快,来不及刹车,那么到底往哪边拐?这个时候程序突然得到消息,左边的人是我们国家一位非常重要的专家,那你是不是会觉得专家更重要?但你转念一想,每个人的生命都是平等的。康德说过,人不仅仅仅是手段,也是目的,他说的人包括普罗大众,不一定是专家教授或者是企业家。

这个时候就很麻烦了,不同的程序会打架。AGI就要处理全局性的问题,能够在不同领域的冲突中得到一个平衡点。

小前提是,我们都知道人工智能是基于规则的,也就是一系列的逻辑原则。但是神经元网络的学习思路不同,它没有清楚的规则。有规则和没有规则的区别是什么?我举个例子。假设一个俄罗斯小伙子到少林寺学武功,语言不通,怎么办?有个办法,和尚做一个动作,小伙子跟着做,做对了就微笑,做错了就棒喝。小伙子被棒喝以后,知道自己不对,但怎么个不对法?他一下子未必知道,就需要不断试错。不对的武术有千千万万种,就需要猜,一开始这种猜测都是随机的。所以语言的好处很明显,语言是基于规则的,规则本身就要用语言来表达,告诉你武术的规则是什么,然后再由人转化为下层的运动。

但是神经元网络不是这样,它就是我们前面所说的那种很蠢的教学方法。人类错了以后的反省是有道理的,是基于规则的。但是系统不是,它就是胡乱调参数,猜错了,下次再猜。它就是通过大量胡猜,把事情慢慢往对的方向猜。人不能这样学习,这样会累死的。但机器可以,它们可以在很短的时间里完成人类不可能完成的巨量猜测。深度神经元网络技术就是用强大的机器掩盖了方法本身的笨。如果有现成的数据会非常好办,但如果没有优质数据,靠自己搜集就非常成问题。

目前的深度学习机制,根本问题就是缺乏跨领域学习的能力,这是人工智能无法AGI化的根本道理。不同的系统有不同的运作方式,国际象棋有国际象棋的下法,围棋有围棋的下法,人可以适应变化,但人工智能就很难适应。我们能不能把所有专用的人工智能整合为一套通用的人工智能呢?这其中又有一个问题,协同。这就和打仗一样,需要各个队伍的协同整合,需要有一个将领来领导,而人工智能并不具备总体的调配能力。

人工智能和人类智能还差在哪儿?一些专家提出了所谓的"卡特尔-霍恩-卡罗尔"三层智力模型。他们把通用智能分解成为很多东西,比如流体智力、晶体智力、量化推理、读写能力、短期记忆、长期记忆、视觉处理和听觉处理等等。这个东西有一个很重要的用途,工作单位在招人的时候,可以测试他的智能。量化推理无非就是算术,读写能力就是你能不能看懂文章,读懂要点。那么,什么是流体智力和晶体智力呢?晶体智力就是,老师现在给你一道题目,告诉你解法以后,看你能不能把前面做题的思路放在新的题目上,如果行的话,那事情就好办了。流体智力,要求更高,相当大程度上,它强调是个灵动的状态。

从这种比较来看,我们可以发现,现在的人工智能不是根据心理学所规定的这些发展方向来发展的,所以它的"拟人性"很成问题。

通用人工智能的确有人在研究,但现在主流的技术依然不是通用人工智能,全世界研究的队伍估计也就几百个人。但是,我始终认为,通用人工智能虽然达不到,但是是一件可以追求的事情,而且在某种意义上是必须追求的。说"人工智能应当永远停留在专用状态,而不应该进展到通用状态",这是一种谬见。说"今天的人工智能是通用人工智能",这同样是一种谬见。

来源: 科创新闻网 责任编辑:电商新闻网
免责声明:
  • 注明“来源:电商新闻网”的所有作品,版权均属于电商新闻网,未经本网授权不得转载、摘编或利用其它方式使用上述作品;经本网授权使用作品的,应在授权范围内使用,并注明"来源:电商新闻网";违反上述声明者,本网将追究其相关法律责任。
  • 电商新闻网转载文章是为了传播信息,不代表本网观点。如因作品内容、版权和其它问题需同本网联系的,请在相关作品刊发之日起30日内发送至电子邮箱:

复旦EMBA邀徐英瑾教授从哲学的视角探讨人工智能的发展

作为对管理学专业课程的补充,"君子知道"复旦大学EMBA人文商道讲堂秉承"商道人文,融汇贯通"的目标,让学生从人文中汲取力量,拥有大智慧、大视野、大情怀。"君子知道"人文商道讲堂依托复旦大学强大的师资力量,遍邀名师,为EMBA学生校友分享商道、人文和政经等热门话题。

近日,"君子知道"复旦大学EMBA人文商道讲堂特邀复旦大学哲学学院教授、博导、教育部长江青年学者徐英瑾从哲学的视角讲述人工智能的发展。徐英瑾教授认为:现在的人工智能不是根据心理学所规定的发展方向来发展的,所以它的"拟人性"还很成问题。通用人工智能目前还达不到能够应用的阶段,但这是可以追求的,而且在某种意义上是必须追求的一件事情。

复旦大学哲学学院教授、博导,教育部长江青年学者。主要研究领域为人工智能哲学,知识论,认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届"科史哲青年著作奖"。

以下为根据讲座整理的主要内容。

我们谈论这个话题,有一个背景,那就是,公众对人工智能有很高的期望。这其中,很多期望是建立在对学界实际发展状况的误解上。比如认为人工智能是个新东西,是这几年冒出来的。事实上,"人工智能"(artificial intelligence)正式变成公认的学科名词是在1956年美国的达特茅斯会议上。显然这是距今很久远的事情了。至于现在被谈论很多的深度学习技能,前身就是人工神经元网络(artificial neural network)。这个概念20世纪60年代就被学界注意到了。人工智能的奠基人之一阿兰·图灵生前也搞过一些粗浅的人工神经元网络研究,这样算的话,这个技术至少可以追溯到20世纪40年代了。所以,人工智能的主流技术其实并不新,它是经过传统技术的反复迭代而来的。

AI技术的现状:理想丰满,技术骨感

对AI技术,主要有三种论断。有人持乐观论,认为AI的发展一定能够在短时间内解决我们面临的各种问题。这种论调描绘了一个乌托邦场景:回到家中,所有的设备都能够通过5G网络和物联网与你心有灵犀。汽车是不用驾驶的,上了车啥事都不用干就可以把你带到目的地。

另一种是悲观论,表面看上去这和乐观论背道而驰,实际上底层逻辑是一样的。他们都认为,人工智能能够消灭很多人的工作。只是,持有乐观论的是站在顶层的人,他们本身就拥有财富、权力和资本,所以员工解散了不要紧,企业还是我的,我照样赚钱。悲观论者更多站在那些被裁掉的人的立场,认为AI会对人类构成巨大威胁,甚至有可能带来人类的灭绝。

我的观点是泡沫论。"泡沫"不是指AI的未来一片黯淡,而是说在短期内,这项技术的发展无法匹配很多人的梦想。理想很丰满,技术目前还很骨感。如果你意识不到两者的差距,就会导致泡沫。

假如因为对AI持有乐观态度而到市场上去融资,那就需要谨慎考虑。历史上有成功的案例,比如IBM360计算机项目,但也有很多失败的案例。许多关于AI的融资计划都把未来描述得很好,饼画得特别大,但最后很有可能会黄掉。

AI对我们生活的改变不是全局性的、颠覆性的,而是局部的改进。如果怀着颠覆人们生活的期望去投资项目,那十有八九会失败。AI在网络教育里的作用,在养老陪护上的作用等,我认为会有一些商机。但有些项目比如自动驾驶,就有很多泡沫。

使用传统方法解决问题的能力在下降,这是危险的

我自己主张的泡沫论是建立在一些基本概念界定的基础上的,比如"专用人工智能"和"通用人工智能"。专用人工智能就是只能干一件事或两件事的机器,而通用人工智能就是啥事都能干。我举个例子,李世石是一位棋手,但是AlphaGo是一个围棋程序。如果我们把李世石看成一个智能系统的话,他就是通用智能系统。因为他还能做许多其他事情,比如他应该会泡面,会开车,他还会在和AlphaGo下完棋以后接受媒体采访,谈谈感受。但是AlphaGo肯定不会开车,也不能在和李世石下完棋以后和媒体谈谈它的感受。人类的特点是,你在一件事上可能是专家,其他事情也能干,只是干得没那么好。李世石开车肯定没有韩寒好,这就是专用人工智能和通用人工智能的区别。

我们现在看到的人工智能都是专用的,它们的制作思路都是按照专用的思路来做的。比如人脸识别和语音识别,现在人工智能通过卷积神经元网络技术的进步,已经获得了一个极大的能力。一个人可以同时通过人脸和声音识别他人,但对于人工智能来说,图像识别的神经元系统和语音识别是两回事。

《西部世界》剧照

但现在人们对人工智能的想象又是建立在通用人工智能之上的,这是一件很麻烦的事。很多人可能看过美剧《西部世界》,它是以美国西部的环境作为外景地拍摄的。里面出现的机器人都特别厉害,他们都有了人类的特征,就开始反抗人类。有人看了就会脑补,如果我们和机器人一起生活,会受到怎样的威胁?很多人对人工智能的思考就是建立在这类科幻电视之上的。科幻影视作品受众广,不需要具备多少科学素养,都能看明白。

我自己有一个观点,软科幻看多了,要看一些硬科幻。硬科幻距离今天的科学很近,比如《火星救援》。硬科幻可以起到科普的作用,能够增强你对现实世界的把握能力。现在的人工智能都是基于大数据的,它对小概率和偶然性事件缺乏应对机制,所以面对这个充满变动的世界,我们都不知道如何应对了。比如,一种新型病毒、未知规模的洪水。

所以问题不是人工智能有了人的意识以后与人对抗,而是我们过多依赖人工智能以后,脑袋变蠢了。前不久我参加了一个在上海举办的论坛,一位外国人工智能专家介绍他们与警方合作,用大数据来监测可能发生的犯罪。看了以后,我心里就犯嘀咕,假设一个糟糕的状况,某个掌握大数据的警察变节了,他要做坏事,其他人是没有办法的。因为那么多年来警察办案都习惯于调监控,然后对录像进行分析,一旦这些数据都变成虚假的,警察已经无法像以前的福尔摩斯一样用大脑进行思考了。传统的办案"武功"在下降,这个危险相当大。

不要以为有了现代化的东西以后就可以放弃传统。假设我们在和另一个军队打仗,现在都能用5G网络,敌人把我们的网黑了,我们怎么办,只能用信鸽或者鸡毛信,用最原始的方法。如果我们将人工智能的能力想象得很强大,同时又废掉了我们用传统方法解决问题的能力,这可能会将人类置于某种尴尬的境地。

为什么现在我们还发展不出通用人工智能?

现在的"深度学习"技术能够真正到达通用人工智能的程度吗?从哲学角度看,这是不可能的。如果说一件事在哲学上行不通,这是一种很严重的指控,就说明这件事从根本上说就是没戏。比如永动机,在哲学上就是不可能的。

现在我来论证这一点,这里有个大前提、小前提和结论,这是最典型的三段论论证。

AGI(通用人工智能)系统的特点就是通用,既然是通用,就要处理全局性的问题。什么是全局性?就是在不同的理论体系之间进行一个抉择的能力。不同的诉求彼此是有冲突的,你要想办法找到一个中庸点。类似于某家政人员跑到别人家里做事。如果主人是一个知识分子,家里书特别多,他可能会要求书房要打扫干净,但不能干净到书都找不到了。读书的人都知道往往书的易取性和整洁性是相互矛盾的,几本书同时看如果都收起来再找再取就很耗费时间。所以,究竟是追求整洁还是易取?这里面有个平衡点。这个平衡点是不能通过程序来设置的,需要和用户进行磨合。

任何一个综合系统都要有处理各种情况的能力。其中有些情况是非常极端的,比如自动驾驶汽车,道路的左边有一个人,道路的右边有五个人,车速太快,来不及刹车,那么到底往哪边拐?这个时候程序突然得到消息,左边的人是我们国家一位非常重要的专家,那你是不是会觉得专家更重要?但你转念一想,每个人的生命都是平等的。康德说过,人不仅仅仅是手段,也是目的,他说的人包括普罗大众,不一定是专家教授或者是企业家。

这个时候就很麻烦了,不同的程序会打架。AGI就要处理全局性的问题,能够在不同领域的冲突中得到一个平衡点。

小前提是,我们都知道人工智能是基于规则的,也就是一系列的逻辑原则。但是神经元网络的学习思路不同,它没有清楚的规则。有规则和没有规则的区别是什么?我举个例子。假设一个俄罗斯小伙子到少林寺学武功,语言不通,怎么办?有个办法,和尚做一个动作,小伙子跟着做,做对了就微笑,做错了就棒喝。小伙子被棒喝以后,知道自己不对,但怎么个不对法?他一下子未必知道,就需要不断试错。不对的武术有千千万万种,就需要猜,一开始这种猜测都是随机的。所以语言的好处很明显,语言是基于规则的,规则本身就要用语言来表达,告诉你武术的规则是什么,然后再由人转化为下层的运动。

但是神经元网络不是这样,它就是我们前面所说的那种很蠢的教学方法。人类错了以后的反省是有道理的,是基于规则的。但是系统不是,它就是胡乱调参数,猜错了,下次再猜。它就是通过大量胡猜,把事情慢慢往对的方向猜。人不能这样学习,这样会累死的。但机器可以,它们可以在很短的时间里完成人类不可能完成的巨量猜测。深度神经元网络技术就是用强大的机器掩盖了方法本身的笨。如果有现成的数据会非常好办,但如果没有优质数据,靠自己搜集就非常成问题。

目前的深度学习机制,根本问题就是缺乏跨领域学习的能力,这是人工智能无法AGI化的根本道理。不同的系统有不同的运作方式,国际象棋有国际象棋的下法,围棋有围棋的下法,人可以适应变化,但人工智能就很难适应。我们能不能把所有专用的人工智能整合为一套通用的人工智能呢?这其中又有一个问题,协同。这就和打仗一样,需要各个队伍的协同整合,需要有一个将领来领导,而人工智能并不具备总体的调配能力。

人工智能和人类智能还差在哪儿?一些专家提出了所谓的"卡特尔-霍恩-卡罗尔"三层智力模型。他们把通用智能分解成为很多东西,比如流体智力、晶体智力、量化推理、读写能力、短期记忆、长期记忆、视觉处理和听觉处理等等。这个东西有一个很重要的用途,工作单位在招人的时候,可以测试他的智能。量化推理无非就是算术,读写能力就是你能不能看懂文章,读懂要点。那么,什么是流体智力和晶体智力呢?晶体智力就是,老师现在给你一道题目,告诉你解法以后,看你能不能把前面做题的思路放在新的题目上,如果行的话,那事情就好办了。流体智力,要求更高,相当大程度上,它强调是个灵动的状态。

从这种比较来看,我们可以发现,现在的人工智能不是根据心理学所规定的这些发展方向来发展的,所以它的"拟人性"很成问题。

通用人工智能的确有人在研究,但现在主流的技术依然不是通用人工智能,全世界研究的队伍估计也就几百个人。但是,我始终认为,通用人工智能虽然达不到,但是是一件可以追求的事情,而且在某种意义上是必须追求的。说"人工智能应当永远停留在专用状态,而不应该进展到通用状态",这是一种谬见。说"今天的人工智能是通用人工智能",这同样是一种谬见。

免责声明:
  • 注明“来源:电商新闻网”的所有作品,版权均属于电商新闻网,未经本网授权不得转载、摘编或利用其它方式使用上述作品;经本网授权使用作品的,应在授权范围内使用,并注明"来源:电商新闻网";违反上述声明者,本网将追究其相关法律责任。
  • 电商新闻网转载文章是为了传播信息,不代表本网观点。如因作品内容、版权和其它问题需同本网联系的,请在相关作品刊发之日起30日内发送至电子邮箱:

相关阅读

热点精选