[2018.10.06]小哲谈谈中文房间思想实验

中文房间这个概念其实是源自于西方语系国家的人对中文的陌生而引发的实验,其实对于当代中国人来说,英语的熟悉程度也不是完全陌生的了,小哲认为换成我们的说法,可以用阿拉伯语房间来理解。
我们先来看百度百科的名词解释:中文房间(Chinese room,the Chinese room argument)又称作华语房间,是由美国哲学家约翰·希尔勒(John Searle)在1980年设计的一个思维试验以推翻强人工智能(机能主义)提出的过强主张:只要计算机拥有了适当的程序,理论上就可以说计算机拥有它的认知状态以及可以像人一样地进行理解活动。
小哲在之前有谈过图灵测试与人工智能,图灵给出的说法是如果在屋外的人给出问题让屋内回答,如果答案让屋外的人能误认为屋内的机器其实是人,那么这个机器可以认为是拥有人工智能,而中文房间的这个思想实验其实通俗的理解就是在反对图灵测试的这个说法。
小哲用我们的方式来进行这个思考实验,想象一个只会说中文的人身处一间屋子里面,这间屋子除了门上有一个小窗口之外,全部都是封闭的。这个人随身带了一本阿拉伯语翻译的书,还有大量的纸条、工具帮助他进行翻译。房间外的人通过在小窗口上传纸条的方式与之用阿拉伯语交流。房间内的人通过阿拉伯语翻译程序的书翻译成阿拉伯语进行回复。小哲认为这样以来房间里面的人可以让房间外的人认为他也会说阿拉伯语,但是他完全不会说阿拉伯语,更不知道阿拉伯语的意思。
有点绕,再通俗的用今天的实例进行举例,天猫精灵或者小爱同学这种智能音箱,他们是人工智能吗?也许你提的问题,它能非常有趣的回答你,但它作为机器本身是不能理解问题的,只是在大数据的方式找到了其他人类预先设置好的答案,亦或者是在提问的语句中找到相关的关键词来触发一些事件,根本谈不上人工智能,就是这个意思。
如果要创造一个真正能和人类等同的智能,那它的意识一定不能只局限于语言符号的。也许我们可以创造一台符号操作机(聊天机器人或互联网搜索引擎),它在行为上可以很像人类,甚至能够设想它通过了图灵检测,但它毕竟还是不了解这些符号背后的意义,而一台不懂语义的机器注定不可能具有等同于人类的意识和智能。
目前知识表示、机器学习、NLP等等人工智能技术,都是在不断强化人工智能模仿人类能力的能力,但让人工智能具备模仿人类意识的能力,直到现在依旧是一片空白。所以真正的人工智能的路其实是任重道远的,甚至在某些程度上来说是永远不可能实现的。担心人工智能将毁灭人类的朋友们可以放心了,也许这一天永远不会到来。

[2018.07.21]小哲谈谈博弈论囚徒困境

上次在聊懦夫博弈的时候就提到过这个囚徒困境,它是博弈论中非零和博弈的代表性的例子,我在很早之前也聊过零和博弈,所以还是老套路,分享加思考。
先看来看看这个经典的囚徒困境吧。

警方逮捕甲、乙两名嫌疑犯,但没有足够证据指控二人有罪。于是警方分开囚禁嫌疑犯,分别和二人见面,并向双方提供以下相同的选择:
若一人认罪(Confession)并作证检控对方(术语称为背叛(Defection)对方),而对方保持沉默,此人将即时获释,沉默者将判监10年。
若二人都保持沉默(术语称为合作(Cooperation)),则二人同样判监1年。
若二人都互相检举(互相背叛(Mutual cooperation)),则二人同样判监2年。

囚徒困境的主旨为,囚徒们虽然彼此合作,坚不吐实,可为全体带来最佳利益(无罪开释),但在资讯不明的情况下,因为出卖同伙可为自己带来利益(缩短刑期),也因为同伙把自己招出来可为他带来利益,因此彼此出卖虽违反最佳共同利益,反而是自己最大利益所在。并不是每次个人的“理性选择”都能让自我利益最大化,也许会让你陷入一个“囚徒困境”。大量例子说明,在“囚徒困境”中,常常是先动手的一方会占一些优势。那么,“先下手为强”吧。