Google 生成式 AI 课程学习
date
Aug 14, 2024
slug
introduction-to-generative-ai-learning-google
status
Published
tags
AI
summary
谷歌的 AI 课程,主要介绍生成式 AI 的概念,包括大语言模型的基础知识
type
Post
生成式 AI 在 AI 学科下所处的位置
- AI:AI是一门学科,就像物理学是一门科学学科一样 ,AI是计算机科学的一个分支, 主要研究如何创建智能体 ,也就是能够自主推理、学习 和行动的系统
- 机器学习(ML):机器学习是人工智能的一个分支 ,它是一个通过输入数据 ,来训练模型的程序或系统 ,经过训练的模型可以根据从未见过的新数据做出有价值的预测,这些数据提取自训练模型所用的数据集。
- 监督式机器学习模型:会用到标签,加标签的数据添加了标记,标记包括名称、类型或数字等 。在监督式学习中,测试数据值x 被输入到模型中 模型输出预测值 并将其与用于训练该模型的 训练数据进行比较 如果预测的测试数据值 与实际的训练数据值相差很大 我们就称之为有“误差” 模型会尝试减小此误差 直到预测值和实际值较为接近
- 非监督式机器学习模型:使用未加标签的数据,没有标记。旨在探索数据 查看原始数据 并判断这些数据是否能自然分组。即预测、分类、聚类
- 深度学习 DeepLearning:是机器学习技术的一种 使用的是人工神经网络 因此能够处理比一般机器学习 更为复杂的模式
- 人工神经网络的设计灵感来源于人脑 就像大脑一样 它们由许多相互连接的节点,即神经元组成 这些节点或神经元 可以通过处理数据和进行预测来学习执行任务
- 深度学习模型通常具有多层神经元 因此能够学习比传统机器学习模型 更加复杂的模式 神经网络可以兼用带标签的数据和不带标签的数据 这称为“半监督式学习”
- 在半监督式学习中,神经网络的训练 使用少量带标签的数据和 大量不带标签的数据 带标签的数据有助于神经网络学习 该任务的基本概念 而不带标签的数据有助于神经网络 将学习收获泛化到新的样本
- 生成式 AI:生成式AI是深度学习的一个分支,它采用人工神经网络,可使用监督式、非监督式和半监督式方法,处理带标签的数据和不带标签的数据 。
- 生成式AI是一种人工智能 基于从现有内容中 学到的知识来创建新的内容
- 从现有内容中学习的过程 称为“训练” 训练完毕后,就会生成统计模型
- 只要提供提示,生成式AI就会使用统计模型 预测预期的回答可能是什么 进而生成新的内容 它会学习数据的底层结构 然后生成与其训练所使用的数据 相似的新样本
- 生成式语言模型 是模式匹配系统 他们根据您提供的数据 学习数据的模式
- 生成式AI之所以非常强大 是因为使用了Transformer Transformer在2018年掀起了一场 自然语言处理的革命 概括来讲,Transformer模型 由编码器和解码器组成 编码器对输入序列进行编码 再将它传递给解码器 解码器会学习如何解码 相关任务的表示法
- 判别式 AI:判别式模型是一种用于 分类或预测数据点标签的模型
- 这类模型通常基于 带标签的数据点数据集进行训练 以学习数据点特征和 标签之间的关系 判别模型经过训练后 就可以用来预测新数据点的标签
- 传统的机器学习监督式学习过程 采用训练代码和带标签的数据来构建模型 根据应用场景或问题的不同 模型可用于预测、分类或聚类
- 区分是否是生成式AI
- 生成模型 可以生成新的数据实例 而判别模型 可以区分不同类型的数据实例
- 如果模型的输出,即y或标签 是数字、概率、或类别时那它就不是生成式AI;如果模型的输出是自然语言 例如语音或文本、音频 或者图片、视频,那它就是生成式AI
- 幻觉:模型常常会生成一些 无意义或存在语法问题的字词或短语 我们称之为“幻觉” ,幻觉会给Transformer带来不利影响 因为它们会导致用户很难理解 输出的文本 还会让模型更容易生成 错误或误导性的信息。幻觉可由多种因素引起
- 比如用来训练模型的数据不足
- 训练所用的是噪声数据或脏数据
- 未提供足够的情境
- 或是没有提供足够的限制条件
- 提示:
- prompt是作为输入 提供给大型语言模型,即LLM的一小段文本 可用于以多种方式 控制模型的输出 。
- 提示设计就是创建提示的过程 ,旨在让LLM生成理想的输出结果。
- 生成式 AI 的分类:
- 文本转文本
- 文本转音频
- 文本转图片
- 文本转视频
- 文本到任务模型:这类模型经训练后可根据文本输入执行指定任务或操作。这里所说的任务可以是各种操作比如回答问题、执行搜索、进行预测或采取某种操作。举个例子,文本到任务模型 经训练后,可以导航网页界面 或者通过图形界面、更改文档
- 基础模型 :这类大型AI模型基于大量数据 进行了预训练,旨在适应或在微调后适应范围广泛的下游任务 。例如情感分析、图片标注 和对象识别 基础模型有望 彻底改变许多行业包括医疗保健、金融和客户服务行业 这类模型甚至还能用来检测欺诈行为 以及提供个性化的客户服务。
LLMs 大语言模型 Large Language Models
- 定义:可以进行预训练,也可以进行特定目的微调的大型通用语言模型
- 深度学习的一个分支,与生成式 AI 交叉
- 基础模型为了通用,预先大规模训练的是解决常见问题的能力(预训练),也可以针对特定领域用小数据集定制(微调)
- 特点:
- 大:训练数据集大、参数数据大(参数是 机器从模型训练中学到的 记忆和知识 参数指定了模型 解决问题的能力)
- 通用:只能但足以解决常见问题
- 人类的语言具有共性,与任务无关
- 只有大公司有能力和资源训练大模型
- 预训练和微调
- 应用场景
- 一个模型可以通用处理常见问题
- 微调时,所需要的训练数据特别少甚至不用,效果也很好
- 在持续添加数据集和参数时,性能会持续提升
- prompt 调优
- 提示设计和提示工程 是自然语言处理中两个密切相关的概念,两者都涉及到创建一个清晰 简洁、且内容丰富的提示
- 区别:
- 提示设计就是根据系统被要求执行的特定任务创建量身定制的提示的过程
- 而提示工程是创建旨在提高性能的提示的过程。这可能涉及利用特定领域的知识提供期望得到的输出的示例 或是使用已知对特定系统有效的关键字
- 提示设计更通用,而提示工程更专业 。提示设计必不可少 而提示工程仅仅对于 需要高度准确性或高性能的系统是必需的
- 大模型的类型
- 通用语言模型:基于训练数据预测下一个词语
- 指令调优模型:针对输入中的指令来预测回答。比如总结一段关于“X”的文本、以“X”的风格写一首诗、根据“X”的语义相似度给出一个关键字列表
- 对话调优模型 :是指令调优模型的一个特例,请求通常是以向聊天机器人,提问的形式发出对话调优适用于 较长的来回对话情境 使用自然的提问式 表达方式通常会获得更好的效果

- 调优的方法:
- 微调:建立自己的数据集,设定权重重新训练模型,需要大量训练工作,投入时间和成本
- PETM:parameter-efficient tuning methods:参数高效调优方法:让你可以基于自己的自定义数据 对大语言模型调优,而无需复制模型 基本模型本身不会改变 调优的是少量附加层 在推理时,这些附加层可以换入换出
- Prompt tuning:最简单的在 prompt 中加入示例