ChatGPT时代:正在到来的人工智能新浪潮
上QQ阅读APP看书,第一时间看更新

ChatGPT的黑箱属性

阁下能读这些文字,本身就是一件神奇的事情。人脑神经元的结构很简单,单个神经元不能阅读,亦不能思考。

但是,当足够多的这种简单的神经元连接一起,组成一个神经网络时,它就不仅能阅读,甚至还能创作。

人脑究竟是如何产生智能的?这仍然是一个尚未被完全解开的谜团,但可以确认的是,人类智能是伴随着人类脑容量的大幅增加而产生的。

脑神经科学家已经发现,人脑由大约860亿个神经元细胞及超过100万亿个神经突触组成,这些神经元及其突触共同构成了一个庞大的神经网络。

每个神经元通过突触与其他神经元进行连接与通信。当通过突触所接收到的信号强度超过某个阈值时,神经元便会被激活,并通过突触向上层神经元发送激活信号。作为一个复杂的多级系统,大脑的思维活动来源于功能的逐级整合。神经元的功能被整合为神经网络的功能,神经网络的功能又被整合为神经回路的功能,神经回路的功能最终被整合为大脑的思维功能。

人脑由神经元构成,本质就是一个神经网络。然而,其神妙之处在于,在逐级整合的过程中,每个层次上实现的都是“1+1>2”的效果,在较高层次上产生了较低层次的每个子系统都不具备的“涌现能力”。

仅仅凭着这些大脑神经元的连接,就可以产生知识、技术,甚至征服星辰大海,破译宇宙奥秘。因此,人工智能的仿生学研究者,也被称为联结主义者,他们并不热衷于计算机编程,而是渴望研究神经元相互连接后的涌现能力。

联结主义者希望通过对人脑的“逆向工程”,复制神经元群之间的正确连接,进而研究神经元之间的相互作用,了解智能的特性。这就意味着,所谓“智能”问题不一定要以还原论的方法来解释。从神经生理学角度出发,模拟人脑的工作原理建立学习算法,这一学派被后世称为联结主义或仿生学派。

今时今日,人工智能的突破,ChatGPT的爆火,亦是拜人工神经网络的扩展所赐。当“简单的连接”规模达到某个临界点,“复杂的智能”可能就涌现出来了。

2023年3月底,美国未来生命研究所(Future of Life Institute)公布了一封由图灵奖得主约书亚·本吉奥、Stability AI公司的CEO莫斯塔克、特斯拉的CEO马斯克等人签署的公开信,呼吁在6个月内暂停高级人工智能的开发,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。信中写道:广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。这一观点得到了顶级人工智能实验室的承认。

信件也指出,这并不意味着暂停AI发展,而只是从危险的竞赛中退一步,避免发展出具有涌现能力的,更大、更不可预测的“黑箱模型”(Black Box)。

“黑箱模型”或称经验模型,指一些其内部规律还很少为人们所知的现象。许多机器学习模型都存在黑箱问题。人工智能模型的复杂性可能会引发法律、伦理等方面的问题。

ChatGPT是基于深度神经网络的机器学习预训练模型,不再遵循数据的输入、特征提取、特征选择、逻辑推理、预测这种过程,它是人工神经网络从事物特征出发,自动学习,进而生成认知。

预训练模型之所以被称为“黑箱模型”,是因为神经网络有输入层、输出层和隐藏层(又称“隐层”),输入通过非线性函数的加权后得到了最终的输出,而我们要做的就是根据误差准则调整权重参数,不需要,也不可能完全知道这些参数选择的具体原因。

在输入的数据和其输出的结论之间,还存在着“隐藏层”,人类无从得知中间过程,不能观察,也无法理解。

预训练模型可以成为分析海量数据,发现关联性的强大工具。然而,与人类解决问题的过程不同,许多人工智能模型无法给出解决步骤。相较于完全由人工规则控制的“专家系统”人工智能来说,预训练模型就像一个“黑箱”,没有人能够保证预训练模型不会涌现一些危险的东西。