CSDN话题挑战赛第2期
参赛话题:人工智能的【能】与【不能】
逻辑一直是西方学者长期研究的中心话题,人们一直希望用一整套的符号来代替语言和思维本身,即用完全确定的符号来呈现全部的推理过程。
比如推理一件事情,我们不希望有任何人的意识和思维参与,而是根据事情本身的信息,通过对信息的符号化,然后再用规定好的运算规则进行自动运算,最终得到结果,即用一套符号化的逻辑系统来进行命题的推论。
一个逻辑系统中,首先是人为规定了最基本的公理,在公里上进行的一系列表述叫做命题,其中证明了的叫做定理。
那么一个逻辑系统至少要满足以下几个性质:
哥德尔定理即哥德尔不完备定理,其内容是任何一个包含自然数公理的算术形式系统中,不可能同时满足自洽性和完备性,将其总结为两个版本即为:
一个系统在发展中,会推导出越来越多的定理,系统越来越完备,但是根据哥德尔定理,完备性和自洽性是矛盾的,所以这个系统最终会推导出互相矛盾的定理。这里的系统要满足强大的特点,数学家一致认为,只要系统包含了所有的算术运算,即包括全部自然数和他们的加减乘除,就算足够强大了,则就符合哥德尔定理适用的描述。
其证明方式是非常巧妙的,哥德尔构造了一个自指语句 U 来证明,哥德尔语句 U 的自然语言形式如下:
假设命题 U 是可以证明的,那么得到 U 描述的就是对的即 U 是不可证明的,这里就出现了矛盾,所以假设不成立,于是 U 是不可证明的,U 命题本身就是真的,从而¬U 是假的,即¬U 是不可证明为定理的,即¬U 也是不可证明的。于是得到 U 和¬U 都是不可证明的,但是在算术模型中 U 和¬U 必有一真,因此存在着有为真但不可证明的命题。
人工智能(Artificial Intelligence,AI)有时也称作机器智能,是指由人工制造出来的系统所表现出来的智能,主要是为了模拟、延伸和扩展人的智能。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
人工智能实现人工智能的一大方法就是机器学习,而机器学习本质上就是一套算法,通过将各种输入编码为数字化形式,通过一套固定的算法继续运算,最终得到结果。
深度学习作为近年来较火的机器学习方法之一,是实现人工智能的重要方法。深度学习使用了某种形式的人工神经网络(ANN)技术,因此必须先用示例数据进行训练。经过训练的ANN 就可以用来执行相关任务。使用已经过训练的 ANN 的过程被称为“推理”。在推理时,ANN 会根据习得的规则对所提供的数据进行评估。
深度学习种类非常之多,但是非常基础也非常重要的操作就是下图的,即加权和和激活操作。通过将输入和对应权重相乘,再将结果相加求和,完成加权和操作,同时为了增强非线性表达能力,对结果再进行激活操作。
我们可以看到,这种操作就是一套固定的运算规则来完成。比如一个分类任务,输入就是一张图,这就是对于分类事情所掌握的全部信息,现在将这个图片信息转化为数字化的形式,将数字图像进行模型的推理,即将数字图像这个矩阵在模型中进行一系列的固定运算操作,最终得到分类结果,可以看出整个任务的推理没有人为的意识和参与,完全是一套符号化的逻辑系统进行推理。
人类的大脑其中也含有大量的生物神经元,这些神经元不断在我们大脑里传递信息,帮助我们完成所有的活动。深度学习看起来是模拟了大脑中神经元的活动,通过传递、加强和抑制能操作,对流过的数据进行运算,最终得到结果。
那么是否意味着只要深度学习模型中神经元够多,就能够完全模拟我们大脑的所有活动?从上文可以看出人工智能就是一个符号化的逻辑系统,一种形式系统,如果我们的大脑也可以理解为一套形式系统,那么人工智能就能实现大脑的全部功能。
那么大脑是不是一个形式系统?众说纷纭,像彭罗斯则认为显然不会是一个形式系统,因为大脑具有自动识别对错的能力,形式系统是不具有的。而图灵则认为形式系统是一个不会会犯错的系统,而大脑是经常犯错的,所以哥德尔定理就不适合对大脑的描述,即哥德尔定理无法判定大脑是否属于形式系统,所以无法用哥德尔定理来描述人工智能和大脑之间的关系,也就无法判定人工智能能不能完全实现大脑的功能。
至少有不少人认为大脑不是一个形式系统,并且从直觉上看,大脑的活动不仅仅是规则化的运算这么简单,并且我个人也认为大脑不是一个形式系统,它应当更加的复杂。所以大脑不是一个形式系统,而计算机确实一个形式系统。
现在再来看哥德尔定理,哥德尔定理找到了自然数公理的破绽:包含自然数公理体系的自洽系统,必然存在一些无法被证明的真命题,那么凡是蕴含了自然数的一阶逻辑系统都将含有这个破绽。而计算机科学正是这样一个一阶逻辑的形式系统(一阶逻辑也叫一阶谓词演算,允许量化陈述的公式,是使用于数学、哲学、语言学及计算机科学中的一种形式系统。一阶谓词逻辑作为算数公理的一部分,是数学上最重要最广泛采用的形式化逻辑系统),意味着哥德尔定理从理论上决定了计算机科学不能解决所有的数学问题,即计算机科学的局限性。
对于人脑来讲,虽然也存在不能解决或矛盾的问题,不会坚持这个矛盾,而是会试图解决它,解决方法之一就是扩大范围,新建知识系统,在自然数系统内无法解决,在实数范围内或许就能得到解决,在实数范围不能解决,在复数范围内或许就能解决,甚至新建一个理论体系。
因为我们说大脑不是一个形式化系统。大脑具有直觉和经验,可以不断引入新的可接受的方法,在形式系统外看出并证明在系统内无法证明的语句。从更底层来讲,我们的大脑在时间轴上是不断进化的,时刻与外部环境进行物质的、能量的和信息的交互,并可随环境发生底层的进化和改变。同时环境还分为自然环境和社会环境,人与自然。人与社会都是一个更大的生态圈,随时进行全面的交互和融合,这才是大脑体现智能的关键所在。
但是就目前的计算机科学,计算机底层硬件都是固定不变的,我们所有的工作都是在固定硬件之上做不同的软件。虽然利用软件可以在高层实现表现为非形式化的智能程序,但这种所谓的智能程序也不过是形式化的一种复杂实现,它们仅仅拥有形式系统的能力,底层硬件没有与像人脑一样与环境交互,随环境发生变化和进化以适应环境。总之就是大脑不等价于一台计算机,大脑的运作也不等同于计算机。
人工智想要实现模拟人的智能,但是当前人工智能是基于当前计算机科学体系产生的,本质上也是一种基于计算的“智能”算法,它必然无法解决所有问题,它也无法像人脑一样拥有意识或者思维,去尝试解决它。如果想要计算机达到人脑一样,实现真正的人工智能,计算机的底层硬件能随环境改变和进化,CPU 能与随环境变化而变化,自动升级并且自主发送进化等等。当然这已经不是目前计算机的原理了,它已经不是一个严格的形式系统,环境的许多无穷的随机因素都可能干扰计算机内部的形式系统,而计算本身也可以升级以适应和改变环境。
目前大热的人工智能(直接使用代码去定义机器的类人行文)更多是弱人工智能,它只能在具体任务上的表现能够超越人类,是否意味着他们就超越了人类?实际上人工智能的类人行为是指全面的,因为没有哪个人的全部功能仅仅就是识别手写数字 0~9,所以仅仅在某些单任务上超越人类仍然没有实现人工智能的目标。
而强人工智能(使用代码或新手段设定机器人自主学习、思考,拥有类人的思维)至少从定义上看起来更像是类人,但让机器人学会自主学习、思考或者自我反思等行为,就目前这种纯计算的方式我认为是不可能实现的,就算能实现也只是模拟自主学习而不是真正的自主学习。就像目前的对话系统,就算能通过图灵测试,本质上也是概率统计和逻辑系统的成果而已。
比如猫狗分类问题中,弱人工智能的方法只能判定是猫是狗,当当遇到非猫非狗时,只能给出一个错误的答案。如果强人工智能,把当遇到不可解决的问题时和不可判定的命题纳入自身的系统中,对新的非猫非狗物种进行学习甚至进行自己的定义,我认为才是真正的类脑智能。因为对事物的认识是一个自我否定不断发展的过程,弱人工智能的发展需要人们不断修改代码和算法来实现,这必然不具有普遍性和适应性。而强人工智能因为有自己的学习能力能够自主完成这样的自我否定和发展,正如上文所说的能够与环境进行交互,完成自我升级,所以才真正具有人脑功能。
哥德尔定理从理论上否定了目前这种形式化计算系统能够达到人脑的智能的可能,因为任何形式系统总能在其中构造不能被通过执行算法来解决的问题。就像一面墙,计算机想要打破这面墙,只有通过除了“计算”以外的行为才能打破。但是形式化系统不能够执行“计算”以外的行为。生活中人脑所处理的很多活动对于形式化系统就是一面墙,所以计算机不能达到人脑这种智能状态。
但是这不代表最终不能实现智能,因为这里所探讨的只是目前我们计算机这种原理下,不可能实现智能。如果未来在计算机领域有了更为先进的、可以令机器和环境进行交互的原理模式,哥德尔所设定的这面墙也就不复存在了