【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini

这篇具有很好参考价值的文章主要介绍了【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Gemini

【一句话总结,对标GPT4,模型还是transformer的docoder部分,提出三个不同版本的Gemini模型,Ultra的最牛逼,Nano的可以用在手机上。】

谷歌提出了一个新系列多模态模型——Gemini家族模型,包括Ultra,Pro,Nano(1.5B Nano-1,3.25BNano-2)三种尺寸(模型由大到小)。在图像、音频、视频和文本理解方面都表现出现,Gemini Ultra在32个benchmarks实现了30个sota。在MMLU中甚至达到了人类专家的性能。
Bard具体使用体验待更新…

1. 引言

Gemini的目标:建立一个模型,该模型不仅具有跨模态的强大通用能力,而且在每个领域都具有尖端的理解和推理性能。

Gemini 1.0 包括三个版本:Ultra 适用于高度复杂的任务,Pro 适用于高性能和大规模部署的场景,Nano 适用于设备上的应用。

Gemini Ultra,在文本推理上实现10/12,图片理解9/9,视频理解6/6,语音识别和翻译5/5。

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

AlphaCode 团队基于Gemini构建出AlphaCode2,在 Codeforces 竞技编程平台的参赛者中名列前 15%,与名列前 50%的前代产品相比有了很大提高。

此外,还发布了Gemini Nana【针对边缘计算设备的,这个蛮有意思的,想体验一下。】

在下面的章节中,首先概述了模型架构、训练基础设施和训练数据集。然后,介绍了 Gemini 模型系列的详细评估,其中包括文本、代码、图像、音频和视频方面经过充分研究的基准和人类偏好评估–其中包括英语性能和多语言能力。讨论了作者负责任的部署方法2,包括影响评估、制定模型政策、评估以及在部署决策前减轻危害的过程。最后,讨论了 Gemini 的广泛影响、局限性及其潜在应用–为人工智能研究与创新的新时代铺平道路。

2. 模型架构

模型同样使用的Transformer的Decoder部分,对模型架构和的模型优化进行了改进。最大支持32K上下文。

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

Gemini的输入可以是文字与各种音频和视觉的组合(如自然图像、图表、截图、PDF 和视频),输出是为文本和图像。The visual encoding of Gemini models is inspired by our own foundational work on Flamingo (Alayrac et al., 2022), CoCa (Yu et al., 2022a), and PaLI (Chen et al., 2022), with the important distinction that the models are multimodal from the beginning and can natively output images using discrete image tokens (Ramesh et al., 2021; Yu et al., 2022b).【视觉编码是来源于下面这些工作的。】

视频理解是通过将视频编码为大型上下文窗口中的帧序列来实现的。视频帧或图像可与文本或音频自然交错,作为模型输入的一部分。

Gemini 可以直接从通用语音模型(USM)(Zhang 等人,2023 年)特征中获取 16kHz 的音频信号。这使得该模型能够捕捉到音频被简单地映射到文本输入时通常会丢失的细微差别(例如,请参阅网站上的音频理解演示)

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

3. 训练基础设施

用的是Google自己的TPU资源。【图片来自Gemini的blog,每一次看都感觉很震撼……大力出奇迹】

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

4. 训练数据集

预训练数据集使用了来自网络文档、书籍和代码的数据,还包括图像、音频和视频数据

tokenizer使用的是SentencePiece tokenizer。并且发现,在整个训练语料库的大量样本上训练标记化器可以提高推断词汇量,从而提高模型性能。例如,发现 Gemini 模型可以有效地标记非拉丁文【比如汉语】脚本,这反过来又有利于提高模型质量以及训练和推理速度。用于训练最大模型的token数量是按照霍夫曼等人(2022)的方法确定的。对于较小的模型,则使用更多的token进行训练,以提高给定推理预算下的性能,这与 Touvron 等人(2023a)所提倡的方法类似。

我们使用启发式规则和基于模型的分类器对所有数据集进行质量过滤。我们还进行了安全过滤,以去除有害内容。我们从训练语料库中过滤评估集。最终的数据混合物和权重是通过对较小模型的消减确定的。我们进行阶段性训练,以便在训练过程中改变混合物的组成–在训练接近尾声时增加领域相关数据的权重。我们发现,数据质量对高性能模型至关重要,并认为在寻找预训练的最佳数据集分布方面仍存在许多有趣的问题。

5. Evalution

Gemini 模型是原生的多模态模型,因为它们是跨文本、图像、音频和视频进行联合训练的。一个悬而未决的问题是,这种联合训练是否能产生一个在每个领域都有强大能力的模型–即使与狭隘地针对单一领域的模型和方法相比也是如此。我们发现情况确实如此:在广泛的文本、图像、音频和视频基准测试中,Gemini 树立了新的技术典范。

5.1. Text

5.1.1. Academic Benchmarks

在一系列基于文本的学术基准测试中,我们将 Gemini Pro 和 Ultra 与一套外部 LLM 和我们之前的最佳模型 PaLM 2 进行了比较,测试内容包括推理、阅读理解、STEM 和编码。我们在表 2 中报告了这些结果。总的来说,我们发现 Gemini Pro 的性能优于 GPT-3.5 等推理优化模型,并可与现有的几种能力最强的模型相媲美,而 Gemini Ultra 则优于目前所有的模型。

我们发现,当 Gemini Ultra 与考虑到模型不确定性的思维链提示方法(Wei 等人,2022 年)结合使用时,其准确率最高。该模型会产生一个包含 k 个样本(例如 8 个或 32 个)的思维链。如果存在高于预设阈值的共识(根据验证分割选择),它就会选择这个答案,否则就会返回到基于最大似然选择的贪婪样本,而不进行思维链。【这个CoT@32….挺有意思】

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.1.2. Trends in Capabilities

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.1.3. Nano

【个人感觉Nano是最友好的,Nano-1:1.8B的参数,Nano-2:3.25B的参数】

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.1.4. Multilinguality

多语言翻译

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

多语言数学与总结

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.1.5. Long Context

Gemini是在32768个token的情况下进行训练的【seq_len = 32768】

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.1.6. Human Preference Evaluations

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.1.7. Complex Reasoning Systems

5.2. Multimodal

双子座模型天生就是多模态的。如图 5 和图 12 所示,这些模型具有独特的能力,能将其跨模态能力(如从表格、图表或图形中提取信息和空间布局)与语言模型的强大推理能力(如其在数学和编码方面的一流性能)无缝结合起来。这些模型在辨别输入中的细粒度细节、聚合跨时空的上下文以及将这些能力应用于与时间相关的视频帧和/或音频输入序列方面也表现出色。下文将对模型在不同模式(图像、视频和音频)下的表现进行更详细的评估,并举例说明模型在图像生成方面的能力以及在不同模式下整合信息的能力。

5.2.1. Image Understanding

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.2.2. Video Understanding

从每个视频片段中抽取 16 个间隔相等的帧,并将其输入 Gemini 模型

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.2.3. Image Generation

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.2.4. Audio Understanding

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

5.2.5. Modality Combination

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

6. Responsible Deployment

【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini,论文阅读,Gimini,Transformer,GPT,chatgpt

6.1. Impact Assessment

6.2. Model Policy

6.3. Evaluations

6.4. Mitigations

6.4.1. Data

6.4.2. Instruction Tuning

指令调整包括监督微调(SFT)和使用奖励模型通过人类反馈进行强化学习(RLHF)。我们在文本和多模式设置中应用指令调整。指令调整配方经过精心设计,以平衡帮助性的增加和与安全性和幻觉相关的模型危害的减少(Bai 等人,2022a)。 “质量”数据的管理对于 SFT、奖励模型训练和 RLHF 至关重要。使用较小的模型消除数据混合比率,以平衡有用性(例如遵循指令、创造力)和模型危害减少的指标,并且这些结果可以很好地推广到较大的模型。我们还观察到,数据质量比数量更重要(Touvron et al., 2023b; Zhou et al., 2023),特别是对于较大的模型。同样,对于奖励模型训练,我们发现平衡数据集与模型更喜欢说“我无能为力”的示例(出于安全原因)和模型输出有用响应的示例至关重要。我们使用多目标优化以及有用性、真实性和安全性奖励分数的加权总和来训练多头奖励模型。我们进一步阐述了降低有害文本生成风险的方法。我们在各种用例中列举了大约 20 种伤害类型(例如仇恨言论、提供医疗建议、建议危险行为)。我们生成这些类别中潜在危害性查询的数据集,要么由政策专家和机器学习工程师手动生成,要么通过以主题关键字作为种子提示高性能语言模型来生成。考虑到会造成伤害的查询,我们探索 Gemini 模型并通过并排评估来分析模型响应。如上所述,我们平衡了模型输出响应无害与有帮助的目标。根据检测到的风险区域,我们创建额外的监督微调数据来展示理想的响应。

6.4.3. Factuality

6.4.3. Factuality

6.6. Responsible Governance

7. Discussion and Conclusion

【一句话总结:Gimini最牛逼,是谷歌集大成之作】

除了基准测试中最先进的结果之外,我们最兴奋的是 Gemini 模型支持的新用例。 Gemini 模型的新功能可解析复杂图像(例如图表或信息图表),对图像、音频和文本的交错序列进行推理,并在响应时生成交错文本和图像,从而开启了各种新应用。正如报告和附录中的数据所示,Gemini 可以在教育、日常问题解决、多语言交流、信息总结、提取和创造力等领域实现新方法。我们期望这些模型的用户会发现各种有益的新用途,而这些用途在我们自己的调查中只触及了表面。

Gemini 是我们朝着解决智能问题、推进科学发展和造福人类的使命迈出的又一步,我们热切地希望看到 Google 及其他公司的同事如何使用这些模型。我们建立在机器学习、数据、基础设施和负责任的开发方面的许多创新之上,这些都是我们在 Google 十多年来一直追求的领域。我们在本报告中提出的模型为我们更广泛的未来目标提供了坚实的基础,即开发一个大规模、模块化的系统,该系统将在多种模式中具有广泛的泛化能力。

8. 人员

9. Appendix

9.1. Chain-of-Thought Comparisons on MMLU benchmark

9.2. Capabilities and Benchmarking Tasks

9.3. Qualitative Examples

9.3.1. Chart understanding and reasoning over data

9.3.2. Multimodal question answering

9.3.3. Interleaved image and text generation

9.3.4. Image understanding and reasoning

9.3.5. Geometrical reasoning

9.3.6. Information seeking about objects

9.3.7. Multimodal reasoning based on visual cues

9.3.8. Multimodal humor understanding

9.4. Commonsense reasoning in a multilingual setting

9.4.1. Reasoning and code generation

9.4.2. Mathematics: Calculus

9.5. Multi-step reasoning and mathematics

9.5.1. Complex image understanding, code generation, and instruction following

9.5.2. Video understanding and reasoning文章来源地址https://www.toymoban.com/news/detail-759302.html

到了这里,关于【论文笔记】Gemini: A Family of Highly Capable Multimodal Models——细看Gemini的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [论文阅读笔记77]LoRA:Low-Rank Adaptation of Large Language Models

    题目 论文作者与单位 来源 年份 LoRA: Low-Rank Adaptation of Large Language Models microsoft International Conference on Learning Representations 2021 524 Citations 论文链接:https://arxiv.org/pdf/2106.09685.pdf 论文代码:https://github.com/microsoft/LoRA 研究主题 问题背景 核心方法流程 亮点 数据集 结论 论文类型 关

    2024年02月06日
    浏览(55)
  • 【论文笔记】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    将LLMs应用于医学,以协助医生和病人护理,成为人工智能和临床医学领域的一个有前景的研究方向。为此, 本综述提供了医学中LLMs当前进展、应用和面临挑战的全面概述 。 具体来说,旨在回答以下问题: 1)什么是LLMs,如何构建医学LLMs? 2)医学LLMs的下游表现如何? 3)

    2024年02月03日
    浏览(46)
  • [阅读笔记23][JAM]JOINTLY TRAINING LARGE AUTOREGRESSIVE MULTIMODAL MODELS

    这篇论文是24年1月发表的,然后是基于的RA-CM3和CM3Leon这两篇论文。它所提出的JAM结构系统地融合了现有的文本模型和图像生成模型。 主要有两点贡献,第一点是提出了融合两个模型的方法,第二点是为混合模型精心设计的指令微调策略。 下图是一个示例,再给出问题回答时

    2024年04月26日
    浏览(47)
  • 【论文阅读笔记】Large Multimodal Agents: A Survey

    [写在开头] 深度学习小白,如果有不对的地方请大家多指正,对说的就是你大佬! 论文名称: Large Multimodal Agents: A Survey 论文链接: https://arxiv.org/pdf/2402.15116.pdf Large Multimodal Agents (LMAs) 大型多模态智能体 Motivation 大语言模型的诞生赋予了 agent 类人的决策和推理能力,如何将 LL

    2024年03月18日
    浏览(59)
  • 论文阅读 A Survey of Large Language Models 3

    为了检验LLM的有效性和优越性,大量的任务和基准被用来进行实证评估和分析。我们首先介绍了LLM语言生成和理解的三种基本评估任务,然后介绍了LLM具有更复杂设置或目标的几个高级任务,最后讨论了现有的基准和实证分析。 在这一部分中,我们主要关注LLM的三种评估任务

    2024年02月13日
    浏览(48)
  • VL系列 Exchanging-based Multimodal Fusion with Transformer 论文阅读笔记

    写在前面   又是一个周末 教师节,祝老师们节日快乐呀。依惯例,论文读起来~   这是一篇多模态融合的文章,也算是这些年新出的一种方式了,具体还不知道啥情况,代码已开源,一试便知。 论文地址:Exchanging-based Multimodal Fusion with Transformer 代码地址:https://github.

    2024年02月05日
    浏览(61)
  • NExT-GPT: Any-to-Any Multimodal LLM论文笔记

    论文 https://arxiv.org/pdf/2309.05519.pdf 代码 https://github.com/NExT-GPT/NExT-GPT/tree/main 现有的多模态大模型大都只是支持输入端的多模态(Text、Image、Video、Audio等),但是输出端都是Text。 也有一些现有的输入输出都是多模态的工作,如CoDi、Visual-ChatGPT、 HuggingGPT等,这一类工作又存在下

    2024年02月04日
    浏览(46)
  • 论文《LoRA: Low-Rank Adaptation of Large Language Models》阅读

    今天带来的是由微软Edward Hu等人完成并发表在ICLR 2022上的论文《LoRA: Low-Rank Adaptation of Large Language Models》,论文提出了大模型 tuning 框架 LoRA ( Lo w- R ank A daptation)。 论文地址:https://openreview.net/pdf?id=nZeVKeeFYf9 附录下载地址:https://openreview.net/attachment?id=nZeVKeeFYf9name=supplementa

    2024年02月11日
    浏览(55)
  • 【论文精读】LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS

    当下大模型时代最火的低资源微调大模型方法之一,方法简单易懂,道理清晰明了,对未来的工作有很强的启发性。如果想要深入了解LoRA的底层原理,建议仔细看一看这篇文章,如果只是应用,那么简单了解就好了~ 大模型预训练后的全量微调往往由于算力缺口而不可行,因

    2024年02月10日
    浏览(133)
  • 【论文阅读】LoRA: Low-Rank Adaptation of Large Language Models

    code:GitHub - microsoft/LoRA: Code for loralib, an implementation of \\\"LoRA: Low-Rank Adaptation of Large Language Models\\\" 做法: 把预训练LLMs里面的参数权重给 冻结 ; 向transformer架构中的每一层, 注入 可训练的 rank decomposition matrices-(低)秩分解矩阵,从而可以显著地减少下游任务所需要的可训练参

    2024年02月03日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包