热线电话:13121318867

登录
首页精彩阅读大数据、人工智能、哲学
大数据、人工智能、哲学
2017-12-03
收藏

大数据、人工智能、哲学

您从什么时候开始关注人工智能哲学的?

徐英瑾:差不多从2004年左右开始吧,我在翻译王浩文集的同时,读到玛格丽特·博登的《人工智能哲学》这部论文集。当时人工智能远远没有现在这么热门,但是我觉得,这是未来哲学应该处理的问题。博登的书只是一部入门之作,从此书开始,我找了大量相关资料阅读。

关于人工智能哲学研究,我主要是和美国天普大学的计算机专家王培老师合作,他研究人工智能的体系,认为它就是为了在小数据的情况下进行应急推理。那个时候我还不知道有大数据,当然,大数据的前身,如贝叶斯、神经网络等都有了——今天的深度学习是当时的神经网络的高度加强版,根上的东西从 Geoffrey Hinton 那时就有了。后来大数据越来越热,我才关注到相关讨论。不过,这种关注对我的研究实际上是一种干扰,因为我知道它是错的。

说到大数据,您在这方面发表了不少文章,比如有一篇就叫“大数据等于大智慧吗?”最近也频频谈论大数据问题。您在这方面的观点是什么?

徐英瑾:如果用一句话来概括的话,就是,我谈论大数据的目的在于反对大数据。现在有一种很不好的风气,就是“IP”横行,“大数据”也被当作了IP,更糟糕的是,连我对大数据的批评也成了这个IP的一部分。事实上,我的批评背后,有我的理论关怀,就是日本哲学家九鬼周造的学说。九鬼周造写过一本书,叫《偶然性的问题》,说整个西洋哲学都喜欢从必然性的角度来解决问题,必然性解决不了就用概率论,但偶然性是永远不能被驯服的。大数据是试图驯服偶然性的一种尝试,但它终将无法驯服。

中国历史上,这样的例子很多,尤其是军事史。你看那些大的战役的指挥者,彭城之战的项羽也好,赤壁之战的周瑜、鲁肃也罢,他们最终作出决策,靠的是什么呢,难道是大数据吗?其实是核心情报的评估和基于常识的推理,以及一点点碰运气式的瞎蒙。因为战争是充满无知之幕的。那些以小胜多的战役,如果光看大数据,那么一切都会指向多的那一方要获胜,少的那一方无疑是找死,可是事实是什么呢?

所以,我所设想的新一代人工智能,是能够“认命”的机器人。说“认命”,不是说服从偶然性,而是利用偶然性;不是说无所作为,而是顺势而为。

您的这种观点,说不定会遭到工程技术人员抱怨:哲学流派、观点那么多,我们怎么搞得清楚

徐英瑾:工程技术人员的抱怨,有一点我是同情的:两千年来,哲学问题的确没什么实质性的进展。那么,面对这种情况,我们要采取什么策略呢?印度有部电影叫 OMG:Oh My God!,男主角是个外星人,他跑到地球上之后,不知道哪个神管用,就每个神都拜一拜。

哲学流派、观点很多,保不齐哪一个管用,每一个都要有人去尝试。不能所有的人都搞大数据,都搞神经网络深度学习,这很危险。现在资本都往这几个领域里面涌,这是缺乏哲学思维的,某种意义上也是缺乏风险管理思维。一件这么不靠谱的事情,你怎么能只试一个方向、一种流派?

而且,更糟糕的是,这方面的研究人员常常满脑子技术乌托邦,拿生活经验去细想一下,其实是很荒谬的。举个例子来说,现在 “奇点”被炒得火热,大意是说,奇点革命一旦到来,人类社会将被颠覆。

事实上怎么样呢?我这一代人经历了改革开放初期的物质贫乏,一直到今天的物质极大丰富,我们七八岁时关于二十一世纪的乌托邦式想象,今天实现了几个?深层次的社会结构并没有怎么改变,比如医疗领域,各种新技术的出现其实强化了现有的社会结构,加剧了贫富阶层之间的差距,又谈何颠覆呢?大家把人工智能吹嘘得好像很厉害,其实它一点都不厉害,还有一堆问题没有解决,你去担心它毁灭人类干什么?这就和堂吉诃德一样,把风车当作怪物,自己吓唬自己。

在您看来,目前这种以大数据为基础的人工智能,继续发展下去,可能会取得什么样的结果?

徐英瑾:我认为,再继续这样热炒下去,就是技术泡沫,最后什么也做不出来。关于人工智能的发展,业内有点历史意识的人,脑子里往往有一张图表,下方是时间,上方是发展水平,目前的人工智能在这张表上的确在上升,但不久就会遇上瓶颈。就像我前面说的,它在哲学上是行不通的,很多理论问题还没有得到解决。我个人还是更倾向于小数据。

您关于小数据的观点,在学界有代表性吗?您能就某个方面的实例来详细谈谈,有哪些人工智能的理论问题还没有得到解决吗?

徐英瑾:在人工智能学界,小数据不算主流,但在其他领域就不一样了,心理学界对小数据的思考就很深入,德国 Gerd Gigerenzer 做了大量的工作,人工智能学界还没有关注到。这是很可惜的事情。

说到有待解决的理论问题,我可以拿脑研究来作为例子。现在有一种倾向,是试图从大脑出发来制造人工智能。这方面的风险实在太大,很多人不明白大脑究竟有多复杂。

大脑有10^11个神经元,彼此之间存在着极为复杂的联系,其中存在的可能性是个天文数字。在很大程度上,我们进行情感判断和复杂推理的脑区可能是不一样的,对此学术上依然没有弄清楚。现在出了很多这方面的论文,但是并没有给出统一意见,这是因为,大脑和大脑之间还存在着个体差异和民族、文化差异,被试者要经过一定的统计学处理之后才能去除这类差异。

这种操作是很复杂的,而且成本很高,现在进行脑研究主要靠核磁共振成像,这是很昂贵的手段,不足以支持大样本研究。这就导致,现在的研究成果不是科学上要求必须这么做,而是经费上只能允许这么做。但是最终得出的结论却严重地僭越了自身的地位,夸大了自身的代表性。

神经生物学告诉我们,人的神经元是具有文化可塑性的,上层的文化影响会在底层的神经分布当中得到体现,所以,对脑神经做科学研究,是无法剔除文化因素的影响的。人一旦早年处在某个文化共同体当中,神经受到了塑造,今后再想改变就比较难了。这在语言学习当中得到了非常鲜明的体现。日本人说英语比较慢,因为日语是动词后置的,而英语不是,所以他们说英语要做词序变换,导致语速变慢。这就是他们特有的语言编码方式。

因此,你现在如果真的要创造一个大脑,那么它不能是生物的,而必须是硅基的。即使它的构成是类神经元的,也依然是硅基的,否则就是在克隆人了。如果你要对大脑进行抽象,你只能抽象出它的数学成分。这里面有个问题:纯数学不能构成对世界的描述。纯数学每个单位后面要加量纲,量纲要选择哪些东西,取决于你看待这个世界的视角和方向。这就是哲学和理论层面的问题。大脑其实是一层一层的,最底层是生物、化学的东西,再往上就是意识、感觉的东西。

那么,任何一个生物组织,对它的数学模拟,到底是事后诸葛亮式、近似式的追问,还是能够把握它的本质?这是一个很可怕的理论黑洞,不仅是一个工程学黑洞,首先是一个哲学黑洞。这么大一个黑洞,你认为十年二十年能够把它搞清楚,你说风险大不大?比较稳妥的,还是去寻找一条可靠的路径。

您觉得人工智能的可靠路径是什么?

徐英瑾:首先应该放在自然语言处理上。但是,现在就连这方面的研究,也依然是在做大数据,比如翻译软件,它的处理方式就是看现有的译文是怎么翻的,然后它就怎么翻。这是完全不对的。正确的处理方式,是定下一个高目标:将日语写的俳句翻译成中文或英文,而且必须是当代作家即兴创作的俳句,而不能是松尾芭蕉这类知名诗人的、可以检索的俳句。翻译好之后,把美国最好的俳句专家找来做图灵测试。

这个标准虽然很高,但并非不可企及,而且这是正确的方向。只是,如果我们把精力和资源都放在大数据上面,我们就永远也达不到这个目标。因为大数据都是从已有的经验出发,全新的领域它是应付不来的。美国的日本文学专家怎么译俳句?当然是先揣摩文本,进入语境,让自己被日式审美所感动,然后思考,美国文化当中类似的语境是什么。这里面就牵涉到对审美情趣的整体把握。什么是审美情趣?它是和物理世界分割开来的,还是随附在物理世界上的?这里面,又是一堆问题。这些问题不弄明白,仅仅是靠大数据,是不可能成功的。

您前面谈了这么多,我看总结起来就是一句话:当下人工智能的发展,问题比办法多得多得多。

徐英瑾:这是没办法的,打个比方,现在的人工智能的目标,是想要造出一个 Big Hero 6 中的“大白”那样的机器人,既然当下人工智能发展给自己定下了这么一个科幻式的目标,那么,我前面所谈到的问题都是必须考虑到的。实际上 Chappie 这样的电影对人工智能的表现,我觉得是比较合理的,我也很赞同。

它很清楚地告诉你,机器人也有一个学习的过程,很大程度上跟培养小孩是一样的。我构想的未来的人工智能,买回来放到家里你是要教的,而不是一开始就什么都会。前面说到OMG这部电影,里面那个外星人的思维方式就像人工智能,他的推理是严谨、科学的,但因为地球上的多神系统很混乱,他经常因为推理失误触犯某些宗教的禁忌而挨揍,挨完揍之后,他就迅速得出了更接近真相的结论。

这样一个建立假设、验证、挨揍,之后再建立新假设的过程,实际上是科学家的做法,以自己被揍为代价,增进了对地球的认识。但是,重要的地方在于,他的思维方式仅仅是基于小数据:被揍一次之后立刻修改自己的解释;如果是大数据,他会想,被揍一次还不行,应该多被揍几次才能得出正确结论。生物体要是按照大数据的思维方式来的话,早就在地球上灭绝了。

在您看来,未来的人工智能,或者说真正的人工智能应该是什么样的?

徐英瑾:现在很多人工智能研究最大的问题,是不受视角的制约,但是,真正的人工智能是受视角和立场制约的。对机器来说,就是受制于预装的系统和它后来不断学习的经验,而预装的系统,就相当于人类的文化背景。我所构想的人工智能,是需要学习和培养的。AlphaGo当然也要学习,一个晚上下一百万盘棋,但那是极为消耗能量的学习。人工智能应该是举一反三式的学习。AlphaGo虽然强大,但是只能干下棋这样一件事情,无法干别的。

当然,我并不是说,AlphaGo的深度学习技术不能用来做下棋之外的事,这个技术本身可以用来做很多事情。我的意思是说,这个技术一旦做成某一具体的产品,这个产品的功能就固定下来了。用乐高积木来打个比方,如果你是精于此道的高手,你可以拼出一艘航母、一幢高楼,但是一旦拼出了一艘航母,除非你把它拆掉,它就一直是航母了,不再会是高楼。

类似地,一旦你用深度学习技术做出了AlphaGo这个专门用来下棋的机器人,如果再想让它去干别的,很多基本训练和基础架构就必须从头做起,这就相当于把拼成航母的乐高积木一块一块地拆下来,再拼成一艘航母,而想而知工作量会有多大。那么,问题来了:你是需要一个什么都能干,虽然不一定能干到最好的机器人呢,还是需要一个只能把一件事情做到最好,其他什么都不会的机器人?这两种机器人,哪种对人类社会起到的作用更大?

不妨拿战争举个例子。未来的战场会需要大量的战斗型机器人。一个士兵在战场上遇到的情况是千变万化的。请问,难道只有医疗兵知道怎么救援吗?别的士兵也知道,只是未必做得有那么好而已。同样,医疗兵也会使用枪械。

再拿家政服务举个例子,给中产家庭用的机器人,和给富豪家庭用的机器人,肯定是不一样的。AlphaGo这样的机器人怎么去迅速适应呢?关于围棋的输赢是有明确规则的,可是家政问题有规则吗?如果机器人给一个大知识分子收拾书房,打扫得太干净,他反而不满意,可能要拍桌子:“乱有乱的味道!书房怎么可以弄得这么干净呢?”但是你不给他打扫,他又不开心了,“书总归要码得整齐一点,蜘蛛网总归要扫掉吧”。

所以,行为的分寸如何把握,是需要人工智能来学习和判断的。而人工智能如何学习和判断呢?这是需要人类去调教的。


数据分析咨询请扫描二维码

若不方便扫码,搜微信号:CDAshujufenxi

最新资讯
更多
客服在线
立即咨询