什么是生成式 AI?

复制 URL

生成式 AI 是一种人工智能技术,依赖基于大数据集训练的深度学习模型来生成新内容。生成式 AI 模型用于生成新数据,与用于根据差异对数据分类的判别式 AI 模型截然不同。如今,人们常使用生成式 AI 应用来生成文字、图片和代码等。AI 推理是 AI 的运行阶段,在这一阶段,模型能够将其在训练过程中所学到的内容应用于现实场景中。生成式 AI 的常见用例包括聊天机器人、图像创建和编辑、软件代码辅助和科学研究等。

人们在许多专业领域都开始应用了生成式 AI,以快速地可视化呈现创意,高效地处理枯燥而耗时的任务。在医学研究和产品设计等新兴领域,生成式 AI 有望帮助专业人士更好地完成工作,显著改善人们的生活质量。但 AI 也会带来新的风险,用户应该了解并努力降低风险。

近年来涌现了许多知名的生成式 AI 应用,其中包括 OpenAI 的 ChatGPT 和 DALL-E、GitHub CoPilot、微软的 Bing Chat、谷歌的 Gemini、Midjourney、Stable Diffusion 以及 Adobe Firefly。红帽服务包括搭载 IBM watsonx Code Assistant 的红帽® Ansible® Lightspeed红帽 OpenShift® Lightspeed,它们是旨在帮助 IT 专业人员更高效工作的生成式 AI 服务。许多企业组织正在试验自己的生成式 AI 系统,以自动执行日常任务并提高效率。

探索红帽 AI

如果您体验过与 ChatGPT 进行条理清晰的对话,或者观看过 Midjourney 根据您的描述渲染出的逼真画面,您就会知道生成式 AI 能够给人魔法一般的感觉。是什么造就了这样的魔法?

在您使用的 AI 应用幕后,深度学习模型正在不断重新创造它们从大量训练数据中学会的模式。然后,它们在由人类设定的范围参数中工作,根据学到的知识创造新的内容。

观看技术演讲:生成式 AI 助力 Lightspeed 自动化

深度学习模型通常不会存储训练数据的副本,而是会将数据进行编码,使类似的数据点被安排在彼此附近。之后,再对这种表示进行解码,以构建具有类似特征的新原始数据。

构建定制的生成式 AI 应用需要一个模型和一些调整,如由人类监督的微调或一层特定于用例的数据。

如今,大多数流行的生成式 AI 应用都能响应用户提示。只要用自然语言描述您想要什么,应用就能返回您想要的任何内容,就像用魔法变出来一样。

了解 AI 如何为企业服务

红帽资源

生成式 AI 在文字和图像方面的突破性进展不仅霸占了新闻头条,也超越了人们的想象。这项技术日新月异,它的一些早期用例包括:

编写文案:早在 ChatGPT 成为头条新闻(并且开始自己写新闻稿)之前,生成式 AI 系统就已在模仿人类写作上表现优异。语言翻译工具就是生成式 AI 模型的首批用例之一。当前的生成式 AI 工具能够通过响应用户提示来创建几乎任何主题的高质量内容。这些工具还可根据不同的长度和文风要求,调整自己撰写的内容。

生成图像:生成式 AI 图像工具可以根据无数主题和风格的用户提示来合成高质量的图片。一些 AI 工具,如 Adobe Photoshop 中的 Generative Fill,可以为现有作品增添新的元素。

生成语音和音乐:AI 智能声乐工具可以使用书面文本和人声样本音频,创建模仿真人声音的叙述或歌声。还有些工具可以根据用户提示或样本创建人工智能音乐。

生成视频:一些新的服务正在尝试用各种生成式 AI 技术来创建运动影像。例如,有些技术能够将音频与静态图像匹配,让主角的嘴巴和面部表情看起来就像在讲话一样。

生成和补全代码:一些生成式 AI 工具可以接受书面用户提示,应要求输出计算机代码来协助软件开发人员。

增强数据:当使用真实数据不可行或不可取时,生成式 AI 可以创建大量合成数据。例如,如果要训练一个模型来理解医疗卫生数据,但不能包含任何个人身份信息,那么合成数据或许很有用处。它也可以用来将较小或不全的数据集扩展为较大的合成数据集,然后用于训练或测试。

探索生成式 AI 用例

深度学习是一种用于分析和解释大量数据的机器学习技术,它使生成式 AI 成为可能。这一过程也称为深度神经学习或深度神经网络,可让计算机模仿人类获取知识的方式,学会通过观察来学习。在应用计算机来解决理解人类语言或自然语言处理(NLP)的问题上,深度学习是一个至关重要的概念。

为了便于理解,我们可以将深度学习想象为某种流程图,它从输入层开始,到输出层结束。夹在这两层之间的是“隐藏层”,负责加工处理不同级别的信息,并随着不断接收新数据而调整和适应它们的行为。深层学习模型可以拥有数百个隐藏层,每个隐藏层都在数据集内发现关系和模式方面发挥作用。

输入层由多个节点组成,从输入层开始,数据被引入模型并根据分类规则进行分类,然后向下一层传递。数据在每一层中的路径是基于为每个节点设置的计算规则确定的。数据通过每一层向前传递,模型会从数据中提取出观察结果或有意义的信息,并形成最终的输出或数据分析结果。

有一项技术加速了深度学习的发展,那就是 GPU(图形处理单元)。GPU 最初是为了加速视频游戏图形的渲染而设计的。但作为一种高效的并行计算执行方式,GPU 已被证明非常适合深度学习工作负载。

深度学习模型在规模和速度上有所突破,正因如此,生成式 AI 应用当前如雨后春笋般涌现。

神经网络是一种信息处理方式,可以模仿生物神经系统,如人类大脑中的连接。AI 便是如此在看似不相关的信息集之间建立联系。神经网络概念与深度学习密切相关。

深度学习模型如何使用神经网络概念来连接数据点?我们从人类大脑的工作方式说起。人类大脑中有很多相互连接的神经元,当大脑处理传入的数据时,这些神经元就会负责传递信息。神经元之间通过电信号和化学物质相互作用,并在大脑的不同区域之间传递信息。

人工神经网络(ANN)使用的是人工神经元而不是生物神经元,这些人工神经元是由称为节点的软件模块构成的。这些节点使用数值计算(而不是大脑中的化学信号)来进行通信和传递信息。模拟神经网络(SNN)通过聚类数据点进行预测的方式来处理数据。

不同的神经网络技术适用于不同类型的数据。递归神经网络(RNN)是一种使用顺序数据的模型,例如通过按顺序学习词语来处理语言。

Transformer 是一种基于 RNN 理念而打造的特定的神经网络架构,能够更快地处理语言。Transformer 能够学习句子中不同词语的关系,与按顺序摄取各个词语的 RNN 相比,这个过程的效率更高。

大语言模型(LLM)是一种通过将 Transformer 应用于大量广义数据集来进行训练的深度学习模型。LLM 可为许多流行的 AI 聊天和文本工具提供支持。

另外,一种称为扩散模型的深度学习技术已证明非常适合图像生成。扩散模型能够学习将自然图像转化为模糊视觉噪声的过程。然后,图像生成工具将这个过程颠倒过来,从随机噪声模式开始,对其进行细调,直到它变得如同真实照片一般。

深度学习模型可以用参数来描述。如果有一个简单的信用评估模型,该模型使用了来自贷款申请表格的 10 个输入特征进行训练,那么这个模型将有 10 个参数。相比之下,一个 LLM 可具有数十亿个参数。OpenAI 的 Generative Pre-trained Transformer 4(GPT-4)是为 ChatGPT 提供支持的基础模型之一,据说它具有 1 万亿个参数。

基础模型是基于大量普通数据训练的深度学习模型。经过训练后,基础模型就可以针对专门的用例进行细调。顾名思义,这种模型可为许多不同的应用奠定基础。

现如今,创建新的基础模型是一个工程量巨大的项目。这个过程需要不计其数的训练数据,通常要从互联网、数字图书馆、学术文章数据库、库存图像集或其他大型数据集进行广泛的收集。基于如此多数据训练一个模型需要庞大的基础架构,包括组建或租赁 GPU 云。据报道,迄今最大的基础模型的构建成本达到了数亿美元。

由于从零开始训练基础模型需要付出大量时间和精力,因此人们通常依赖第三方训练的模型,在此基础上进行自定义。有多种技术可用来对基础模型进行自定义。其中可能包括微调、Prompt-Tuning 和添加特定于客户或领域的数据。例如,IBM 的 Granite 系列基础模型根据精选数据进行训练,并可让用户清楚了解用于训练的数据。

微调是指利用更具针对性的数据集对经过预先训练的模型进一步训练的过程,这样可以使模型有效执行独特任务。这些额外的训练数据会修改模型的参数,并生成一个取代原始模型的新版本。

微调所需的数据和时间通常远少于初始训练。然而,传统微调过程仍然需要大量计算资源。

参数高效微调(PEFT)是一组仅调整 LLM 中部分参数的技术,可节省资源。可以将它视为传统微调技术的演进。

LoRA(低秩自适应)和 QLoRA(量化低秩自适应)都是可用于训练 AI 模型的 PEFT 技术。LoRA and QLoRA 都有助于更高效地对 LLM 进行微调,但在操作模型和利用存储来达到预期结果方面,它们有所不同。

LoRA 与 QLoRA 说明 

 

检索增强生成(RAG)是一种通过将 LLM 链接到外部资源,从生成式 AI 应用中获得更好答案的方法。

将 RAG 架构实施到基于 LLM 的问答系统(如聊天机器人)中,可以在 LLM 和您选择的其他知识源之间提供沟通渠道。这使得 LLM 能够交叉引用和补充其内部知识,为进行查询的用户提供更可靠和准确的输出结果。

详细了解 RAG

生成式 AI 技术在短时间内取得了长足进步,吸引了格外多的热议,褒奖和质疑各执一词。这项技术的优缺点仍在逐渐浮出水面。这里简要介绍一下生成式 AI 的一些突出问题。

造成危害:生成式 AI 工具被不法分子利用的风险显而易见,例如社交媒体上的虚假信息舆论战,或以真人为目标深度伪造的图像。

加剧有害的社会偏见:生成式 AI 工具已被证明可以重现训练数据中存在的人类偏见,包括有害的歧视或仇恨言论。

提供错误信息:生成式 AI 工具可以产生虚构的、明显错误的信息和场景,有人把这称为“幻觉”。有些错误的生成内容是无害的,比如对聊天提问的无意义回答,或者一张手指过多的人手图像。但也有一些 AI 造成严重问题的情况,比如聊天机器人向饮食失调的人提供有害的建议

安全和法律风险:生成式 AI 系统可能会引发安全风险,包括用户将敏感信息输入到不安全的应用中。生成式 AI 的响应可能会复制受版权保护的内容,或未经同意盗用真人的声音或身份,从而引发法律风险。此外,一些生成式 AI 工具可能具有使用限制。

红帽® AI 是我们专门针对企业组织需求而构建的 AI 产品组合,它筑基于深受客户信赖的红帽解决方案。有了这种稳健的基础,我们的产品就始终可靠、灵活且可扩展。

红帽 AI 可以帮助企业组织做到以下几点:

  • 快速采用 AI 并进行创新。
  • 拆解交付 AI 解决方案的复杂流程。
  • 在任何位置部署。

探索红帽 AI

红帽 AI 提供对第三方模型库的访问,这些模型经过验证,可以在我们的平台上高效运行。这一套现成模型可以应用于容量指导规划的场景,帮助您针对特定领域的用例做出明智的决策。

了解经过红帽 AI 验证的模型更多内容

拥抱开放、选择无限的基础

红帽 AI 解决方案能够支持生成式 AI 和预测性 AI 的功能。具有自带模型的灵活性,支持您专门针对自己的业务用例训练和微调基础模型。

建议从红帽® 企业 Linux® AI 入手,它是一个基础模型平台,您可以在该平台上针对企业应用开发、测试并运行 Granite 系列 LLM。借助 AI 平台,开发人员可以快速访问单个服务器环境,其中包含 LLM 和 AI 工具。它提供了调整模型和构建生成式 AI 应用所需的一切。

探索红帽企业 Linux AI

此外,我们的 AI 合作伙伴生态系统也在不断壮大。各种技术合作伙伴与红帽携手合作,以认证他们的产品能否与红帽 AI 产品无缝衔接。这样,您就可以有更多的选择。

进一步了解合作伙伴

开启企业 AI 之旅:新手指南

此新手指南介绍了红帽 OpenShift AI 和红帽企业 Linux AI 如何加快您的 AI 采用之旅。

所有红帽产品试用

我们的免费试用可让您亲身体验红帽的产品功能,为获得认证做好准备,或评估某个产品是否适合您的企业。

扩展阅读

什么是企业 AI?

企业 AI 是指将人工智能(AI)工具和机器学习软件集成到大规模运维和流程中。如今,企业解决问题的时间大幅缩短,几周内便可完成过去需要数年才能解决的问题。

什么是参数高效微调(PEFT)?

PEFT 是一组仅调整 LLM 中部分参数的技术,可节省资源。

LoRA 与QLoRA:有何区别

LoRA(低秩自适应)和 QLoRA(量化低秩自适应)技术均可用于训练 AI 模型。

AI/ML 相关资源

相关文章