生成式AI和大语言模型 Generative AI & LLMs

这篇具有很好参考价值的文章主要介绍了生成式AI和大语言模型 Generative AI & LLMs。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理
在“使用大型语言模型(LLMs)的生成性AI”中,您将学习生成性AI的基本工作原理,以及如何在实际应用中部署它。

通过参加这门课程,您将学会:

  • 深入了解生成性AI,描述基于LLM的典型生成性AI生命周期中的关键步骤,从数据收集和模型选择,到性能评估和部署
  • 详细描述为LLMs提供动力的变换器架构,它们是如何被训练的,以及微调如何使LLMs能够适应各种特定的用例
  • 使用经验性的缩放法则来优化模型的目标函数,跨数据集大小、计算预算和推断要求
  • 应用最先进的训练、调整、推断、工具和部署方法,以在项目的特定约束条件下最大化模型的性能
  • 在听取行业研究人员和从业者的故事后,讨论生成性AI为企业带来的挑战和机会

对于那些对LLMs的工作原理有良好基础理解的开发者,以及了解训练和部署它们背后的最佳实践的人,他们将能够为公司做出明智的决策,并更快地构建工作原型。这门课程将帮助学习者建立关于如何最好地利用这一令人兴奋的新技术的实用直觉。

这是一门中级课程,所以您应该有一些Python编码的经验,以便从中获得最大的收益。您还应该熟悉机器学习的基础知识,如有监督和无监督学习、损失函数、以及将数据分为训练、验证和测试集。如果您已经参加了DeepLearning.AI的机器学习专项课程或深度学习专项课程,那么您将准备好参加这门课程,并深入探讨生成性AI的基础知识。

我们将讨论大型语言模型、它们的使用案例、模型如何工作、提示工程、如何生成创意文本输出,并为生成性AI项目概述一个项目生命周期。
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理

考虑到您对这门课程的兴趣,可以肯定地说,您已经有机会尝试一个生成性AI工具或希望这样做。无论是聊天机器人、
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理
从文本生成图像,
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理

还是使用插件帮助您开发代码,
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理

您在这些工具中看到的都是一台能够创建模仿或接近人类能力的内容的机器。

生成性AI是传统机器学习的一个子集。支撑生成性AI的机器学习模型通过在由人类最初生成的大量内容数据集中找到统计模式来学习这些能力。大型语言模型经过数周和数月的时间,在数万亿的词上进行了训练,并使用了大量的计算能力。我们称之为基础模型的这些模型,拥有数十亿的参数,展现出超越语言本身的突现性质,研究人员正在解锁它们分解复杂任务、推理和解决问题的能力。
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理

这里是一系列基础模型的集合,有时被称为基础模型,以及它们在参数方面的相对大小。稍后您将更详细地了解这些参数,但现在,请将它们视为模型的记忆。模型的参数越多,记忆就越多,事实证明,它可以执行的任务也越复杂。在整个课程中,我们将用这些紫色的圆圈代表LLM,在实验室中,您将使用一个特定的开源模型,flan-T5,来执行语言任务。通过直接使用这些模型或应用微调技术将它们适应您的特定用例,您可以迅速构建定制解决方案,而无需从头开始训练新模型。

现在,虽然为多种模式创建了生成性AI模型,包括图像、视频、音频和语音,但在这门课程中,您将重点关注大型语言模型及其在自然语言生成中的用途。您将了解它们是如何构建和训练的,如何通过文本与它们互动,这些文本被称为提示。以及如何为您的用例和数据微调模型,以及如何与应用程序一起部署它们来解决您的商业和社会任务。

与语言模型互动的方式与其他机器学习和编程范式大不相同。在那些情况下,您使用正式化的语法编写计算机代码与库和API互动。相反,大型语言模型能够接受自然语言或人类编写的指令,并像人类一样执行任务。您传递给LLM的文本被称为提示。可用于提示的空间或记忆称为上下文窗口,这通常足够容纳几千个词,但因模型而异。
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理

在这个例子中,您要求模型确定Ganymede在太阳系中的位置。提示传递给模型,模型然后预测下一个词,因为您的提示包含了一个问题,这个模型生成了一个答案。模型的输出称为完成,使用模型生成文本的行为称为推断。完成包括原始提示中包含的文本,后跟生成的文本。您可以看到这个模型很好地回答了您的问题。它正确地识别出Ganymede是木星的一颗卫星,并为您的问题生成了一个合理的答案,说明这颗卫星位于木星的轨道内。

在整个课程中,您将看到许多这种风格的提示和完成的示例。
生成式AI和大语言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,语言模型,自然语言处理文章来源地址https://www.toymoban.com/news/detail-658912.html

参考

  • https://www.coursera.org/programs/hsbc-finance-people-and-personal-development-dnger/learn/generative-ai-with-llms
  • https://www.coursera.org/learn/generative-ai-with-llms/lecture/IrsEw/generative-ai-llms

到了这里,关于生成式AI和大语言模型 Generative AI & LLMs的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hugging Face 的文本生成和大语言模型的开源生态

    [更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差,同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性,并且和原始训练数据更加接近,也更不像人话。最近的研究克服了这些困难,并且友

    2024年02月13日
    浏览(43)
  • 【AI实战】开源大语言模型LLMs汇总

    大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。来自百度百科 发展历史 2020年9月,OpenAI授权微软使用GPT-3模

    2024年02月12日
    浏览(47)
  • 【LLM】金融大模型场景和大模型Lora微调实战

    金融行业需要垂直领域LLM,因为存在金融安全和数据大多数存储在本地,在风控、精度、实时性有要求 (1)500亿参数的BloombergGPT BloombergGPT金融大模型也是用transformer架构,用decoder路线, 构建目前规模最大的金融数据集FINPILE,对通用文本+金融知识的混合训练。 用了512块40

    2024年02月12日
    浏览(52)
  • [AI]如何让语言模型LLMs流式输出:HuggingFace Transformers实现

    HugginFace Transforms是一个非常方便的库,集成了非常多SOTA的模型,包含:LLAMA, GPT, ChatGLM Moss,等。目前基本上主流的方案都是基于HugginFace Transforms这个框架实现的。以前如果要流式输出需要自己去改模型底层的推理逻辑。 如ChatGLM,自己实现的流式输出如下: hugging face也注意到

    2024年02月16日
    浏览(60)
  • AI:大语言模型LLM

    LLM 大语言模型(Large Language Model,LLM)是一种利用大量文本数据进行训练的自然语言处理模型,其评价可以从多个方面进行。 以下是一些主要的评价方面: 语言理解和生成能力: 评价大语言模型在自然语言理解(如语义理解、实体识别、情感分析等)和自然语言生成(如文

    2024年02月05日
    浏览(35)
  • LLM(大语言模型)解码时是怎么生成文本的?

    transformers==4.28.1 源码地址:transformers/configuration_utils.py at v4.28.1 · huggingface/transformers (github.com) 文档地址:Generation (huggingface.co) 对于生成任务而言:text-decoder, text-to-text, speech-to-text, and vision-to-text models,有以下几种生成的方法: greedy decoding by calling [ ~generation.GenerationMixin.gre

    2023年04月25日
    浏览(43)
  • 3个控制LLM生成随机性的语言模型参数

    你可能已经使用 ChatGPT 或任何其他主要的LLM来构建系统、执行分类任务、回答问题或将其用作各种创造性和信息性任务的辅助。 然而,控制这些模型的输出以满足特定要求或匹配所需的风格至关重要。 在本文中,我们将重点关注影响语言模型输出的三个基本参数:top-k、to

    2024年01月17日
    浏览(40)
  • AI和软件测试结合-使用LLM将自然语言生成TestCase

    曾在工作之余,设想过一个能提升测试流程左侧效率的点子,结合人工智能,将自然语言自动转化为通用的功能用例、接口用例、代码单元测试用例等一系列用例,碰上这2年LLM模型大爆发,遂有自己炼一个用例生成的专用模型的想法。 用户需求: 用户能够以自然语言形式描

    2024年02月02日
    浏览(53)
  • LLM大语言模型算法特训,带你转型AI大语言模型算法工程师

    LLM(大语言模型)是指大型的语言模型,如GPT(Generative Pre-trained Transformer)系列模型。以下是《LLM大语言模型算法特训,带你转型AI大语言模型算法工程师》课程可能包含的内容: 课程可能会介绍大语言模型的原理、架构和训练方法,包括Transformer架构、自注意力机制、预训

    2024年04月22日
    浏览(42)
  • LLM-Blender: 用成对排序和生成融合集成大型语言模型

    LLM-Blender: Ensembling Large Language Models with Pairwise Ranking and Generative Fusion Dongfu Jiang, Xiang Ren, Bill Yuchen Lin [Zhejiang University University of Southern California Allen Institute for Artificial Intelligence] LLM-Blender: 用成对排序和生成融合集成大型语言模型 动机:大型语言模型(LLM)在多种任务中表现出了令

    2024年02月11日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包