AI信息共享, 人工智能与神经网络2.0
从OpenAI惊艳的放出GPT3后,全世界的人几乎为之着迷。原来从文本知识中可以训练出如此强大的智能模型,很多人似乎愿意相信,真正的人工智能很快就要实现了。并且,OpenAI为了匹配对应的融资,很快放出对应的多模态版本GPT-4o。在文字和图像的交辉相应中,人类的认识被AI愚弄了。原来机器可以认识如此广泛的知识和内容,于是,针对人工智能的想象天花板一下子被打开了。英伟达的股票像直升机一样直飞云霄。
可是,真相真的是这样么?
直到遇到一个问题,用来给大模型训练的文本知识被用完了,这才发现遇到了大麻烦。可是,真正的瓶颈难道是因为缺乏更多的知识用于训练么?反正我是不信的,爱因斯坦和杨振宁所学习到的知识,不到GPT用于训练知识的千分之一。所以,问题并不在于训练数据的多少。OpenAI和现在人们所追求的,用文本知识训练,可以产生类似人类的符号智能,我是不相信的。所以,这也是 Stupid OpenAI 的命名来源。
当前人工智能的爆发式发展,起源于深度神经网络和与之对应的学习算法。Hinton老爷子和他的徒弟们,通过在Imagenet图像识别大赛刷榜,一下子把神经网络和深度学习,刷新了人类的认知范畴。
神经网络的典型特征是,级联的非线性。本来,非线性对数学家就是一个灾难,而级联,更是将这种灾难,更进一步放大,用物理学的一个术语 "黑洞" 来描述,再合适不过了。
之前和一朋友讨论,我说非线性级联,就是将两个不合适男女捆绑在一起,非常别扭。而那位朋友更绝,说应该是将两个男人强行扭在一起,更加令人无法接受。确实,非线性本来就是一个数学黑色地带,级联的非线性,将这种黑色地带形成了一个人类无法接触的物理黑洞。在此基础上的反向传播算法,则是要在黑洞中去寻找可能的阳光,怎么看怎么让人不爽?
从多层感知机开始,就有人不断的希望破解生物神经网络的秘密。的确,如何将生物神经网络的数学原理表达出来,这是一个非常诱人且有前景的话题。
要破解生物神经网络的数学原理,那么必须从最初的物理基础入手。用量子力学的基本原理,来解释生物神经网络形成智能的数学原理,这是一个很自然的基础条件。
将时光回到1905年,物理学被以太这个幽灵折磨的怀疑人生,牛顿大神在地下都感到极为不安。爱因斯坦开创性的提出时间和空间的相对原理,打开了物理学的另一扇大门。
这其中的一个开创性贡献是,对称性成为物理研究的一大法宝。狭义相对论,从惯性系不变性这个最基本的原理,来解释了光速不变的物理含义。
既然物理学家,可以用对称性这个基本原理来解释和预测一些实验尚未观测到的现象,那么,生物神经网络也逃不过这一基本规律。那么,我们要做的就是:
在上面这个链接中,宣称找到了生物神经网络的数学原理。如果我们将这一原理,作为理论基础,来研究现在的数学非线性网络和创造更加优秀的机器智能算法,会变得非常有趣。
从多层感知机开始,我们就陷入了一个无法解释的物理黑洞。毫无疑问,需要从这个黑洞中走出来。未来的神经网络,究竟该是一个怎样的数学模型,提出如下几点假设,后面我们再逐个验证。
从神经网络最原始的神经元结构单元起,一步一步将其改造成一个看起来很舒服的样子。按照如下的步骤:
当然,我们提出了神经网络的基本结构。但是,如何构造这样一个如此庞大的网络。把这个神经网络,分为两个部分
为了最终实现机器智能可以自编程这个目标,“计算” 和 “数据” 这两部分,必须采用相同的数学形式。也就是所谓的数据即代码,代码即数据。在这样一个数学框架下,机器最终可以自我实现计算功能,而非依赖人类预先设计好,也就是可能实现真正的机器智能。
展望未来的机器智能,第一个目标“自生长”,应该会很快实现。机器智能可以根据环境的变化,自我学习新的知识,以此来适应新的环境。
而第二个目标,机器智能可以自编程。这意味着,我们预先设计并规定好的“计算”模式,会被机器修改掉,这将会是非常危险的。意味着它跳出了人类的控制权,是否会产生一些无法预测的危险行为,是很难提前知道的。
但是,我们
stupidopenai.cn
川公网安备51010702043426号
蜀ICP备2025119089号-1