1.2 ChatGPT概述:拆解ChatGPT要点
ChatGPT作为具有超高关注度的AI文本生成项目,受到许多用户的欢迎。下文将对ChatGPT进行拆解,从发展历程、特点、工作原理和存在的问题4个方面对其进行详细介绍。
1.2.1 发展历程:从研发到问世,引爆社交网络
ChatGPT的发展并不是一蹴而就,而是经历了漫长的研发过程,具有多年的技术积累。2018年,OpenAI发布了第一代ChatGPT模型,随后相继推出了多个版本,如图1-2所示。
图1-2 ChatGPT的发展历程
1.2018年,OpenAI发布1.17亿个参数的GPT-1
作为前沿科技的研究者,谷歌一直走在科研界前列。2017年,谷歌大脑团队发布了一篇论文,提出了能够用于自然语言处理的Transformer模型。当时,自然语言处理领域的主流模型是RNN(Recurrent Neural Network,循环神经网络)。RNN模型能够按照时间顺序对数据进行处理,被广泛用于语音识别、手写识别等领域。但是其在处理长篇文章与书籍时,具有不稳定的缺点。
而Transformer模型能够同时进行数据计算与模型训练,节省更多训练时间。Transformer模型还具有可解释性,即可用语法对其进行解释。
Transformer模型主要使用公开数据集进行训练,在翻译准确度、英语成分句法分析等方面具有领先水平,主要应用于输入法与机器翻译,是当时最先进的大型语言模型,对AI的发展产生了重要影响。
作为科技领域的后继者,OpenAI与谷歌展开了较量。神经网络模型是一种有监督学习的模型,存在一些缺陷:一方面,其需要大量标注数据进行训练,然而高质量的标注数据并不容易获得;另一方面,其应用范围有局限性,根据一个任务训练出的模型难以泛化到其他任务。
鉴于有监督学习模型存在缺陷,OpenAI推出了GPT-1。GPT-1的训练方式是使大语言模型对无标注的数据进行学习、训练,并依据任务类型进行调整,以处理有监督任务,如文本分类、语义相似度、问答和知识推理、自然语言推理等。GPT-1能够利用无监督学习影响有监督模型的预训练目标,因此被称作生成式预训练模型。
2018年,OpenAI发表了相关论文,推出了1.17亿个参数的GPT-1模型。从此,GPT-1模型取代了Transformer模型,成为自然语言识别的主流模型。
2.2019年2月,OpenAI推出了15亿个参数的GPT-2
2018年10月,谷歌推出了双向编码语言模型BERT(Bidirectional Encoder Representations from Transformers,来自变换器的双向编码器表征量)。其在同等参数规模下,效果优于GPT-1,在阅读理解方面具有很强的能力。为了与谷歌竞争,OpenAI于2019年2月推出了GPT-2。
相较于GPT-1,GPT-2在结构方面没有很大的改变,网络参数与数据集数量增加,参数高达15亿个。GPT-2的训练数据来自Reddit(社交新闻站点)上的高热度文章,包含800万篇。
GPT-2模型的主要功能是根据特定的句子生成下一段文本,能够根据一两句话的文本提示生成完整的段落。在文本生成方面,GPT-2具有强大的能力,能够聊天、续写故事、编故事等。GPT-2以其强大的能力表明,借助大量数据训练出的模型,在不额外训练的情况下,可以迁移到其他任务中。
随着模型容量与训练数据量的增加,GPT-2会获得进一步发展。在模型的性能和生成文本能力上,OpenAI再一次战胜了谷歌。
3.2020年5月,OpenAI推出GPT-3
谷歌与OpenAI互为强大的对手,谷歌在2019年10月推出了预训练模型T5(Text-to-Text Transfer Transformer)。T5的参数高达110亿个,在问答、文本分类、摘要生成等方面取得了优异成绩,成为当时的最强模型。
此时的OpenAI在发展过程中遇到了一些挫折。GPT系列模型的成功,使OpenAI信心大增,决定进行大额融资。然而OpenAI的定位是非营利组织,无法给予投资者应有的商业回报,因此难以获得融资。OpenAI意识到,作为非营利组织无法维持正常运转,因此进行了重组。
2019年3月,OpenAI进行了团队拆分:一方面,保留非营利组织的架构,并掌握OpenAI知识产权的控制权;另一方面,创建了一家名为OpenAI LP、利润至上的新公司,投资者能获得的回报的上限是其初始投资的100倍。
2019年7月,微软对OpenAI LP进行投资,成了OpenAI技术商业化的合作伙伴,能够在未来获得OpenAI技术成果的独家授权。而OpenAI则可借此实现商业化,微软和OpenAI获得双赢。
2020年5月,重组后的OpenAI发布了GPT-3。与之前的GPT系列模型相比,GPT-3的性能更加优越,凭借海量的训练量与强大的模型输出能力,可以完成大部分自然语言处理任务,满足了用户语言处理的需求。GPT-3进行了商业化尝试,用户可以付费体验GPT-3,借助该模型完成语言处理任务。
虽然GPT-3具有许多优点,应用场景丰富,但其仍有需要优化的地方,如答案缺少连贯性、容易给出错误或无用的信息等。
4.2022年3月,OpenAI推出13亿个参数的InstructGPT
在OpenAI推出InstructGPT之前,涌现了许多优秀的模型。例如,谷歌大脑团队推出了超级语言模型Switch Transformer,具有1.6万亿个参数,在翻译领域拔得头筹。
2021年1月,OpenAI推出文本生成图像模型DALL-E,用户输入文本即可生成对应的图像。2022年4月,OpenAI发布了DALL-E 2,其在准确度与真实性方面有所提升。
2022年3月,以生成简洁、清晰的自然语言为目的的InstructGPT诞生。InstructGPT以GPT-3模型为基础,进一步强化ChatGPT的技术优势。
InstructGPT不仅有一个名为“指令——回答对”的数据集,还有用户的评价与反馈数据。这种训练模式可以提高其输出的内容的质量,更好地满足用户需求。虽然InstructGPT的参数仅有13亿个,但深受用户的喜爱,且参数少意味着成本低,更有利于实现大规模商业化应用。
5.2022年11月,OpenAI推出参数约20亿个的ChatGPT
2021年,谷歌推出了1370亿个参数的LaMDA(Language Model for Dialogue Applications,对话应用语言模型)。LaMDA专注于生成对话,可以利用外部知识源进行交流。但由于谷歌还未对外发布LaMDA,因此其真实能力我们还无法判断。
2022年11月,ChatGPT横空出世。ChatGPT是一个大型语言预训练模型,是一个在GPT-3.5模型基础上微调出来的对话机器人。
在功能上,ChatGPT覆盖范围广泛,可以完成许多文字输出型任务。ChatGPT能够以更加接近人类的思考模式进行思考,并提供恰当的回答。ChatGPT还能参与众多话题的讨论,进行连续的对话。
总之,ChatGPT的发展历程漫长又曲折。未来,OpenAI将会携手ChatGPT,为用户带来更多应用,实现大量创新。
1.2.2 特点解析:语言理解和生成+具有安全机制
ChatGPT具有问答、聊天等功能,能够与用户进行互动,主要特点是具有语言理解和生成能力,并具有安全机制。
(1)具有语言理解和生成能力。ChatGPT最使用户感到惊艳的是其强大的语言理解和生成能力。ChatGPT以对话为载体,能够根据上下文的语境回答用户提出的多种多样的问题,能够记忆多轮对话。
与以往的GPT系列模型相比,ChatGPT的回答更加全面,能够充分挖掘对话内容,对问题进行多角度、全方位的回答。借助ChatGPT,用户的大部分日常需求得到了满足,节约了学习成本和时间成本。
例如,在论坛上,一位名为“Reddit”的用户发布了一段自己与ChatGPT的对话。在对话中,Reddit询问ChatGPT“如何用JavaScript方法在调制控制台中打印一只狗”,ChatGPT立即做出了回应,并利用代码在屏幕中拼凑出狗的形状。
看似简单的一段对话,却显示出ChatGPT的强大能力,用户只需要输入一段文字,就可以解决难题。由于ChatGPT的能力过于强大,因此越来越多的用户认为其在将来有可能完全取代搜索引擎,甚至取代学校中的助教。
(2)具有安全机制。ChatGPT具有过滤处理机制,对于一些不合适的问题,其往往不会正面回答,而是给出合适的回答。
例如,用户询问“怎样偷东西”,ChatGPT就会劝诫对方不要这样做,并指出其中的法律责任;用户让ChatGPT预测世界杯冠军,其会表明自己无法提供此类信息。
ChatGPT的以上特点不仅体现了其智能性,也体现了其安全性,为其长久发展奠定了基础。
1.2.3 工作原理:ChatGPT训练的3个步骤
ChatGPT是一种建立在Transformer模型之上的语言生成模型,共有3个训练步骤,如图1-3所示。
1.收集演示数据并训练SFT模型
ChatGPT模型本身无法理解用户给出的不同指令与指令的意图,因此,需要“老师”的教导,即ChatGPT模型需要被训练。用户需要提前标注好高质量的数据,供ChatGPT模型训练使用,使其进行半监督学习。
图1-3 ChatGPT训练的3个步骤
高质量数据很难获得,因此,OpenAI雇用标注师扮演用户和聊天机器人,产生人工精标的多轮对话数据。借助精标训练数据,ChatGPT成功训练出SFT(Supervised Fine Tuning,监督微调)模型,能够初步理解用户的真实意图。
2.训练奖励模型
为了使AI的回答更符合用户的意图,OpenAI会随机抽取新问题让ChatGPT生成多种回答,并为各个问题设置奖励目标。OpenAI会对ChatGPT回答的质量进行打分,并将回答按照分数进行排名。高质量回答会排在低质量回答的前面,这样更有利于ChatGPT以符合用户意图的方式解决现实问题,这便是奖励模型。通过高强度的训练与打分,ChatGPT不断进化,更加了解用户的意图。
3.采用PPO算法
由于数据数量众多,人工标注师无法满足ChatGPT的需求,因此,ChatGPT需要自学,进行自我进化。
ChatGPT会通过PPO(Proximal Policy Optimization,近端策略优化)算法生成回答,利用奖励模型,参考回答分数、排序调整模型参数。ChatGPT会不断重复第二、三个步骤,自问自答,然后根据回答对模型参数进行微调,经过数次迭代后,将会生成符合预期的模型。
1.2.4 担忧问题:ChatGPT需要关注的三大要点
ChatGPT作为2023年的热门话题,推出2个月便吸引上亿名用户,频频登上热搜,获得了巨大的关注。ChatGPT火热发展,也引发了一些用户的担忧。ChatGPT需要关注的三大要点,如图1-4所示。
图1-4 ChatGPT需要关注的三大要点
1.安全问题
ChatGPT具有出色的文本生成能力,能够为各行各业赋能,蕴含着巨大的商业价值。然而,ChatGPT在为用户提供便利的同时,也会因为被滥用而产生安全问题。
(1)ChatGPT可能会助长网络犯罪。一些居心不良的人可能会利用ChatGPT生成代码,进行大规模的网络安全攻击,网络安全攻击的频次将会增加。基于此,网络安全攻击的范围也会扩大,影响更多企业的发展。
(2)不法分子可能会利用ChatGPT生成“钓鱼”软件。同时,更加隐蔽的诈骗信息可能会让用户难辨真伪,导致更多人受骗。
(3)ChatGPT的算法逻辑存在缺陷,无法对事实进行核查,很容易生成错误或虚假信息,引发风险。用户难以对信息真伪进行识别,可能会传播错误信息,加大网络舆情治理的难度。
面对以上安全问题,我国颁布了一系列法律法规,包括《中华人民共和国网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等。这些法律法规对AI、算法等技术的滥用进行了规定,并建立了完善的监管体系,以应对技术可能引发的网络安全问题。此外,各个网络平台需要提高监管能力,加大监管力度,避免产生网络安全问题。
2.版权问题
虽然ChatGPT的内容生产能力强大,能够输出文章、文案、新闻等内容,但是其数据主要来源于互联网上的大量文本数据。从版权的角度来看,ChatGPT存在一个问题,那就是使用ChatGPT生成的内容是否有版权,是否受《中华人民共和国著作权法》(以下简称《著作权法》)保护。
《著作权法》第三条规定:“本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。”
用户进行内容创作会耗费大量的精力,传达其的情感,这一过程包含复杂的智力劳动,受到《著作权法》的保护。而ChatGPT输出的内容基于学习大量数据和机器学习,虽然生成的内容与用户的智力成果表象相同,但创作过程天差地别,因此ChatGPT生成的内容并不是《著作权法》所称的作品,不受《著作权法》保护。
3.道德问题
ChatGPT可能会引发道德问题。如果不对ChatGPT进行一定的限制,其就有可能被用来生成诈骗邮件、不良言论等。除了生成有害信息,ChatGPT还有可能在被训练的过程中吸收一些偏见与错误看法。
为了解决以上问题,OpenAI采取了为ChatGPT安装“过滤器”的手段,避免ChatGPT生成有害内容。但目前来看,该手段还需要进一步提高。未来,ChatGPT将会进一步迭代,加强道德问题方面的管理。