事实上,和凯瑟琳有同样观点的人,有很多。
例如,为了驳斥这个观点,97年,美国心灵哲学家尼德博尔克提出了一个叫做“中华大脑”的思想实验:假设全中国的每个人都扮演大脑中的一个神经元。并用手中的对讲机模拟神经元之间的信息传递,实现大脑内部的一切机制,那么整个中国是否就构成了一个有思想、有意识、有情感、有记忆的“中华大脑”呢?
这颗真正的“大”脑能像正常人一样。辨别是非,产生情绪,感受疼痛,体验幻觉吗?
尼德博尔克认为,这显然是非常荒唐的。同样地,计算机依靠模拟大脑活动而获得思想,这种说法也是相当不靠谱的。
但就现实生活而言,这似乎是有可能实现的。
例如,在曾经的世界的2世纪,似乎已经出现了一些有思想的机器人。他们甚至能流利地和真人对话。
在200年的loebner人工智能大赛上,2名裁判和计算机程序elbot进行文字聊天,结果有名裁判竟以为自己在和真人聊天,于是elbot顺利摘得大奖。
凯瑟琳将“中华大脑的概念”给艾尔莎复数了一边——也幸亏这位尼德博尔特先生在历史改变之后依然发表了自己的著作,否则,凯瑟琳这次必然又是要进行无耻的抄袭和修改了……
“听上去似乎是那么一回事。”
珍妮歪着头。
“当然。而且不仅仅只是‘那么一回事’而已。我只是想说,真正的机器,不可能达到人类的这种程度,它们不存在真正的智能,不能够进行创造性的发展。”
“一个能和人类正常交流的机器,能不能算有思想的机器呢?我觉得不可能。”
凯瑟琳觉得,这似乎也不能说明什么。
“两年前,也就是90年,约翰西尔勒提出了‘中文屋子’思想实验,揭示了一个深刻的道理:有言语交际能力并不表示有思想。”
艾尔莎点点头,她似乎听说过这回事,但是因为这事情不太了解,一时半会儿的,艾尔莎也解释不了。
“哲学家将人工智能的观点分为两类,弱人工智能和强人工智能,分别认为机器智能只是一种模拟智能和机器确实可以有真正的智能。两种观点进行了争论,出现了不少巧妙的假想实验,而我觉得其中的‘中文屋子’就是反驳强人工智能的一个最有力的假想试验。”
西尔勒提出了名为“中文屋子”的假想实验,模拟图灵测试,用以反驳强人工智能观点。主要说明某台计算机即使通过了图灵测试,能正确的回答问题,它对问题仍然没有任何理解,因此不具备真正的智能。
西尔勒假设:西尔勒博士(扮演计算机中的cpu)在一个封闭的房子里,有输入和输出缝隙与外部相通。输入的是中文问题,而他对中文一窍不通。房子内有一本英语的指令手册(相当于程序),从中可以找到相应的规则。他按照规则办事,把作为答案的中文符号写在纸(相当于存储器)上,并输出到屋子外面。这样,起来他能处理输入的中文问题,并给出正确答案(如同一台计算机通过了图灵测试)。但是,他对那些问题毫无理解,不理解其中的任何一个词!
计算机程序与我们聊天,无非是用一系列复杂的计算过程,分析我们输入的文字,最终得出一个最佳的回复。如果我们给电脑讲了一个冷笑话,电脑程序将会对这则笑话进行断句分词,机械地在知识库中寻找相关的信息,得出“这是一个笑话”的结论,然后在屏幕上显示出一串“哈哈哈”,表示自己知道这是个笑话。
这算是智能吗?
这只是一种模拟智能vi而已,这并不是人工智能ai。
ai的产生并不是如同小说或者影视作品里面那么简单的。
事实上,ai才是一个最难实现的一个事情。
现在,让我们设想有一间屋子,屋子几乎是全封闭的,只有一个用来传递纸条的小窗口。屋子里面坐着一个完全不懂中文的“老外”,“老外”手中配备有铅笔、草稿纸、橡皮擦等各种工具,以及厚厚一叠汉语自动聊天器的程序源代码。现在,屋外的人在一张小纸条上用汉字写一段笑话,然后塞进屋子里。屋里的“老外”显然一个字都不懂。但他可以用纸和笔替代计算机,在草稿纸上进行与程序内部一模一样的运算,模拟聊天程序的运行。经过几天甚至几个月的时间,“老外”终于完成了计算机本只需几秒便可计算完毕的任务,得出了“小纸条上写的是一则笑话”的结论,他应当以大笑声回应。于是,“老外”在纸条反面写上一个“哈哈哈”,把它从小窗口中递出。
这种说法显然是荒谬的。“老外”还是不懂这个笑话是什么意思,他只是一台人肉计算机罢了。
类似于人类的情感,计算机的判断,与人类本身还是有区别的。
无论是任何计算机,都不可能真正拥有“感情”。
他们的一切,都是冷冰冰的。
或许计算机会感到“愤怒”,但实际上,这是因为外界的环境要求他们做出“符合愤怒情绪的反应”而已。
当然,这或许也与微芯片的传输模式有关。
现有微芯片的数据传输模式是非常单一的——不是从左向右传就是从前向后传,逃不出一个二维平面。
即便是碳纳米管芯片,事实上却依然是一种和半导体没太大区别的玩意儿,唯一的不同在于碳纳米管芯片更加的稳定、省电。
只有真正的神经元,才能够如同生命一样进行思考。
但是,那是一种机械了吗?
那个时候,恐怕就已经脱离了机械的概念,进入了生物的领域了吧……
……
一直上不了,坑爹。
今天第二更,还有三更。rq!~!