admin 管理员组文章数量: 887021
一、什么是Chatgpt?
ChatGPT是一种基于人工智能技术的自然语言处理NLP系统,它由OpenAI开发。GPT是Generative Pre-trained Transformer的缩写,是一种使用基于Transformer模型的预训练语言模型,通过对大规模语言数据的预训练和微调来实现自然语言的理解和生成。白话说就是“猜概率游戏”!
ChatGPT是GPT模型的一种应用,旨在实现智能化的对话交互。它可以通过处理大量的语言数据,实现对人类语言的理解和生成,从而实现智能化的对话交互。ChatGPT 可用于聊天机器人、文章写作、诗词生成、代码生成、语言翻译、信息检索等各种能力。
GPT的全称是“Generative Pre-trained Transformer”,翻译一下就是“基于Transformer的生成式预训练模型” 。让我们把这些词拆分来看:
1)“Generative”:指这个模型具备生成自然语言文本的功能。比如给它几个关键词,能够通过这些关键词自动生成一段话或者一篇文章。
2)“Pre-trained”:“预先训练好的”。一般来讲,在应用这种技术时,会需要先将大量的文本数据输入到模型中训练,让模型在一定程度上掌握了语言的语法规则和表达方式,这个提前输入进行训练的过程就被称为预训练。
3)“Transformer”:将它简单理解为“转换器”,基本原理是Encoder(编码)和Decoder(解码),也就是先将输入的内容转换为计算机能理解的内容,再将计算机理解的内容转换为我们人类能理解的内容。
二、ChatGPT 是如何工作的?
模式:LLM+Prompting (通才)
ChatGPT 是 OpenAI 开发的一种大型语言模型,它使用了一种称为 transformer 的最先进的神经网络架构。 2017年Vaswani 等人在论文“Attention is All You Need”中首次介绍了 Transformer 架构。
与旧有技术不同,chatgpt不是多个复合Agent(术业有专攻的多个agent的组合)组合的能力,以往的小爱小度小冰都是这种模式,而chatgpt采⽤的模式是⼤语⾔模型+Prompting:所
有的能力通过⼀个模型实现,背后只有一个什么都会的机器⼈(即⼤语⾔言模型),并⽀支持⽤用户借助⽂文字下达命令(即Prompting,提示/指示)
ChatGPT 使用无监督学习在大量文本数据集上进行训练。训练数据由各种文本组成,包括书籍、文章、网站和其他来源。在训练期间,该模型学习识别数据中的模式和关系,然后可以使用这些模式和关系对用户输入生成连贯且相关的响应。
-
STEP 1:采用问答式的样本对GPT模型的输出方向进行监督训练,引导GPT采用问答对话的形式进行内容输出。
-
STEP 2:训练一个奖励模型(RM)。这个奖励模型就好比一个老师,当给出一个问题和四个答案,老师负责按照人类的偏好给这些答案进行打分,将答案进行排序,如图所示就是D>C>A>B。用问题和四个答案作为奖励模型的输入,人工打分作为问题的输出,通过一定数量样本的训练,可以让这个奖励模型模仿人类老师对结果进行打分。
-
STEP 3:通过以上两步,有了一个具备对话能力的GPT,和一个能够按照人类偏好进行打分的奖励模型。从而便可以构建一套强化学习模型对GPT进行进一步的训练。强化学习的过程我们同样可以用老师和学生的例子来进行理解。GPT就好比一个学生,他会针对问题给出自己的回答。而奖励模型就是一个老师,会对GPT的答案进行打分,学生为了得到更高的分数,就要学着去给出老师更喜欢的答案。从而便实现了GPT的自我训练。
通过以上的训练后,一个ChatGPT的模型就产生了。
总结:与 ChatGPT 交互时,我们的输入首先由模型的分词器处理,它将文本分解为单独的分词并将它们映射为可以输入神经网络的数字表示形式。然后,该模型使用其经过训练的权重根据输入及其当前状态生成响应。对每个后续输入和响应重复此过程,使 ChatGPT 能够生成感觉自然且响应迅速的对话。
ChatGPT 通过利用强大的神经网络架构和大量训练数据来生成对用户输入的连贯且相关的响应。
三、ChatGPT技术原理?
🔥🔥 GPT模型🔥🔥:在一个超大语料基础上预训练出的大语言模型(LLM),采用从左到右进行填字概率预测的自回归语言模型,并基于Prompting(提示)来适应不同领域的任务。
前置知识(非常重要)
- NLP任务:核心逻辑是“猜概率”游戏;
- LLM主流演化方向:Bert和GPT;
① BERT:双向(Bidirectional),预训练语⾔模型+fine-tuning(微调)
② GPT:自回归(Autoregressive Language Model),预训练语⾔言模型+Prompting(指示/提示)
预训练语言模型
-
常规认知:通常认知里的AI是针对具体任务进行训练。例如一个能分辨猫品种的Agent,需要你提供A-缅因猫,B-豹猫这样的数据集给他,让它学习不同品种之间的特征差异,从而学会分辨猫品种这项能力。
-
大语言模型:不同于常规认知,他是通过一个大一统模型先来认识这个世界,再带着对这个世界的认知对具体领域进行降维打击。
-
NLP中间任务:像中文分词,词性标注,NER,句法分析等NLP任务。他们本身无法直接应用,不产生用户价值,但这些任务又是NLP所依赖的,所以称之为中间任务。以前,这些中间任务都是NLP领域必不可少的。但是随着大型语言模型的出现,这些中间任务事实上已经逐步消亡。而大型语言模型其实就是标题中的“语言预训练模型”。
-
预训练模型:将海量的文本语料,直接喂给模型进行学习,在这其中模型对词性、句法的学习自然而然会沉淀在模型的参数当中。“在拥有3000亿单词的语料基础上预训练出的拥有1750亿参数的模型。”
其中3000亿单词就是训练数据,1750亿参数就是沉淀下来的AI对这个世界的理解,其中一部分沉淀了Agent对各类语法、句法的学习,另外一部分参数参数则储存了AI对于事实的认知。经过预训练出一个这样的大语言模型后,AI理解了人类对语言的使用技巧(句法、语法、词性等),也理解了各种事实知识,甚至还懂得了代码编程,并最终在这样的一个大语言模型的基础上,直接降维作用于垂直领域的应用(例如闲聊对话,代码生成,文章生成等)。
BERT和GPT都是基于大语言模型的,他们在这一点上是相同的。他们的不同在于双向/自回归,fine-tuning/Prompting这两个维度。
双向 VS 自回归
-
BERT:双向。双向是指这个模型在“猜概率的时候”,他是两个方向的信息利用起来同时猜测。例如“我__20号回家”,他在预测的时候,是同时利用“我”+“20号回家”两端的信息来预测空格中的词可能为“打算”。有点像我们做英文的完形填空,通常都是结合空格两端的信息来猜测空格内应该是哪个单词。具体见「一文读懂「BERT,Bidirectional Encoder Representations from Transformers」原理」
-
GPT:自回归。自回归就是猜概率的时候从左往右做预测,不会利用文本中右侧的内容,例如“我今天吃__”,有点像我们写作文的时候,我们肯定是一边写一边想。
两者的区别导致BERT在之前更擅长自然语言理解类任务,而GPT更擅长自然语言生成类任务(例如聊天、写作文)。
Fine-tuning VS Prompting
假设现在预训练好的大模型要针对具体领域工作了。那么BERT和GPT的区别在哪里呢?
-
BERT:Fine-tuning(微调)。微调是指模型要做某个专业领域任务时,需要收集相关的专业领域数据,做模型的小幅调整,更新相关参数。具体见「一文读懂「Fine-tuning」微调」
-
GPT:Prompting。prompt是指当模型要做某个专业领域的任务时,我提供给他一些示例、或者引导。但不用更新模型参数,AI只是看看。具体见「一文读懂「Prompt Engineering」提示词工程」
两者最大的区别就是:这种模式下,模型的参数不会做任何变化升级。 到目前为止,关于prompt明明没有对参数产生任何影响,但确实又明显提升了任务的效果,还是一个未解之谜。
这种Prompt其实就是ICT(in-Context Learning),或者你也可以称为Few shot Prompt,用大白话说就是“给你一点小提示”。同时还有另外一种Prompt,称之为Zero shot Prompt。ChatGPT就是Zero shot prompt模式,目前一般称之为instruct了。
这种模式下用户直接用人类的语言下达命令,例如“给我写首诗”,“给我做个请教条”,但是你可以在命令的过程中用一些人类语言增强AI的效果,例如“在输出答案之前,你先每一步都想一想”。就只是增加这样一句话,AI的答案效果就会明显提升。
四、ChatGPT 能做什么?
作为一种 AI 语言模型,ChatGPT 能够完成与自然语言处理相关的各种任务。以下是 ChatGPT 功能的几个示例:
-
回答问题:可以向 ChatGPT 提出任何问题,它会尽力提供准确且信息丰富的答复。
-
生成文本:ChatGPT 可以生成各种样式的新文本,包括信息型、创意型或对话型。
-
翻译语言:ChatGPT 可以使用机器翻译技术将文本从一种语言翻译成另一种语言。
-
总结文本:ChatGPT 可以将较长的文章或文档提取成简洁的摘要。
-
参与对话:ChatGPT 可以与您进行对话,回复您的问题和评论。
-
生成特定风格的文本:ChatGPT 可以接受特定写作风格或体裁的训练,例如诗歌、小说或技术写作。
-
执行任务:ChatGPT 可以执行各种任务,例如计算数学方程式或提供天气预报。
总的来说,ChatGPT的能力集中在理解和生成自然语言上,对各种任务都有帮助。
但是但是但是!!!
GPT目前看似只能解决自然生成领域的任务,但实际上,他展现出了通用型人工智能的潜力。
目前而言,BERT擅长自然语言理解类任务(完形填空),GPT擅长自然语言生成类任务(写作文)。
但在Google的FLAN-T5模型上已经实现了两类任务在输入输出形式上的统一,从而使得用GPT来做完形填空成为可能。也就是可以用一个大模型来解决所有NLP领域的问题。
除此之外,GPT已经开始逐渐从NLP走向其他领域了,如:AI绘画:文生图,CLIP模型,以及text to everything了。
Prompt模式相较fine-tuning更具生命力
事实上,BERT的fine-tuning模式有两个痛点。
- 需要提供某个专业领域的大量的标注数据,如果太少训练后会导致过拟合;
- 需要部署大语言模型才能进行微调,而部署大语言模型以及微调的能力并不是所有公司都具备的。
而Prompt模式恰恰相反,不需要太多的数据量,不需要对模型参数进行改动(意味着不需要部署模型,直接接入公开的大语言模型服务)。那么他的调试就会呈现百花齐放的姿态,玩家越多,创造力涌现就越猛烈。
四、ChatGPT 的局限性是什么?
作为一种 AI 语言模型,ChatGPT 也有一些限制。以下是一些最重要的:
- 落地成本高
ChatGPT的复现依托于大模型,他的落地有三种路径:
① 基于instruct GPT复现(ChatGPT的姐妹模型,有公开paper) – 依赖于新玩家的进入,大概只能是大玩家的赛道。
② 基于OpenAI目前开放的GPT3.0付费接口落地,再结合具体场景进行fine-tuning,目前刊例价费用是25000token/美元,换算国内价格约3700token/元;
③基于OpenAI试点中的ChatGPT PRO落地,42美元/月,换算后约284元/月 - 打平付费接口的成本,需要针对的场景具备足够价值。
当然成本的问题可以期待被快速解决,就像AI绘画领域一样。不过目前而言,成本仍然是ChatGPT落地的一个制约因素。
-
对上下文的理解和背景细节的理解是有限的
Chat GPT 的弱点之一是缺乏对背景和上下文的理解。当在一个特定的领域或行业内使用该模型时,这可能是一个问题,因为它必须能够理解特定的术语、名词或参考文献。 -
难以理解讽刺和挖苦的含义
另一个缺点是它难以理解讽刺或反讽,并理解和创造这些。这是由于GPT是建立在文本语料库上的,可能无法理解词语背后的字面意思。 -
基础知识不足,知识更新困难
Chat GPT也缺乏基础知识和常识,这可能会导致一些应用程序出现问题,例如回答问题和解决问题。该模型建立在相关性和统计模式的基础上,而不是使用常识来理解世界。另一方面知识更新也会带来知识遗忘的隐忧,即你不知道他这次更新是不是在学会什么的同时,也忘记了什么。也就是说ChatGPT在解决这个问题之前,他的知识将始终落后一段时间。 -
理解和回答复杂问题的能力不足
最后,Chat GPT 无法理解和回答复杂的问题。尽管它可以提供连贯和流畅的回答,但它可能无法把握问题的微妙之处或提供准确而全面的答案。对于需要抽象思维或理解不同观点的问题尤其如此。
总的来说,ChatGPT很惊艳,但更多在于它的潜力和未来,基于当下要做应用的话是需要做非常多适配和场景探索的
五、如何使用 ChatGPT?
从目前来看,应用方向可以分成三种
-
模型服务:以OpenAI为典型代表,孵化大模型后,开放接口,提供公共模型能力。
目前OpenAI的接口支持GPT3.0的能力调用,同时支持二次tuning。而在大规模的商业合作上,notion、office全家桶、bing都在推进当中。
-
2B垂直工具
以COPY AI,Jasper为例,主打生成内容,并且瞄准了有明确价值需求的领域。例如自动生成SEO文章、广告创意、ins文案等等。这一类目前海外发展得较好,一方面受益于对SaaS付费的接受度,另一方面也是因为瞄准了明确的用户群——电商从业者。
事实上代码校验提示,会议纪要生成,专业文档写作等都可能是这个方向的扩展。但一方面要看fine-tuning效果如何,另一方面商业价值确实也不如电商领域高。
-
C端娱乐类
C端应该说是场景最匹配ChatGPT应用的方向了,毕竟用户的忍受度相当高,智障音箱都能忍,何况升级后的GPT。
ChatGPT 可以多种方式使用,具体取决于用户的需要。一些可能的用例包括:
- 回答问题:ChatGPT 可以回答关于不同主题的广泛问题,包括科学、技术、历史、地理等。
- 个人助理:ChatGPT 可以帮助用户管理他们的日常任务,例如设置提醒、安排约会、制作待办事项列表等。
- 语言翻译:ChatGPT 可以将文本从一种语言翻译成另一种语言,这对于需要与说不同语言的人交流的用户非常有用。
- 内容生成:ChatGPT 可以生成关于给定主题的文本,例如博客文章、文章或产品说明。
- 聊天机器人:ChatGPT 可用作聊天机器人来提供客户支持或回答常见问题。
- 教育工具:ChatGPT 可用作学生学习不同主题并获得问题答案的教育工具。
但困难的在于两方面:
第一,要找到可供能力落地的C端场景,毕竟单纯聊天是没有价值的,附加了场景才产生价值。
第二,要找到商业模式突破成本线。按照GPT3.0的刊例价来算,要求这个产品每输出3700个字,就要从用户身上赚到1块钱(作为参考:目前国内头部小说网站起点的付费阅读是20000字/元)。
总的来说,ChatGPT 可以以多种方式使用,以提高生产力、效率和沟通。
六、使用ChatGPT的伦理道德考虑因素是什么?
学术写作是研究过程的关键要素,需要仔细思考并专注于细节。 ChatGPT 可以在几秒钟内提供基于提示的文本,这将节省您的时间并提高工作效率。但是,必须了解使用 AI 工具完成研究写作的伦理道德后果。
- 隐私:ChatGPT 处理和存储用户数据,包括姓名、电子邮件和消息等个人信息。重要的是要确保此数据保持安全并且不会在未经同意的情况下被滥用或访问。
- 偏见:与任何机器学习模型一样,ChatGPT 可能会根据其训练的数据而产生偏见。重要的是要监控任何偏见,并在发现偏见时采取措施加以纠正。
- 透明度:重要的是要对用户正在与 AI 语言模型而不是人类进行交互这一事实保持透明。这有助于管理用户期望并避免混淆或欺骗。
- 准确性:ChatGPT并不总是提供准确或完整的信息。重要的是向用户提供有关模型局限性的信息,并鼓励他们在必要时寻求其他信息来源。
- 责任:最终,根据 ChatGPT 提供的信息做出的行动和决定的责任在于用户。重要的是要确保用户意识到这一点,并鼓励他们在必要时寻求专业建议。
总的来说,使用 ChatGPT 的道德考虑包括确保用户数据保密、偏差最小化、保持透明度、优先考虑准确性以及鼓励用户对他们的决定负责。
六、结论
最后,ChatGPT 的颠覆性潜力在它改变行业和改进运营流程的方式中显而易见。未来,随着NLP的进步,技术会在不久的将来得到提升;预计 ChatGPT 将继续在塑造下一代人工智能技术及其所能提供的应用方面发挥重要作用。”
版权声明:本文标题:一文读懂「ChatGPT,Chat Generative Pre-trained Transformer」基于GPT的聊天机器人 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/jishu/1726668037h1009479.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论