开源大模型LLaMA 2会扮演类似Android的角色么?

这篇具有很好参考价值的文章主要介绍了开源大模型LLaMA 2会扮演类似Android的角色么?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

开源大模型LLaMA 2会扮演类似Android的角色么?,开源,llama,android,人工智能,chatgpt

在AI大模型没有商业模式?等文章中,我多次表达过这样一个观点:不要把大模型的未来应用方式比喻成公有云,大模型最终会是云端操作系统的核心(新通用计算平台),而它的落地形式会很像过去的沃森,以系统型超级应用的形态落地。假如真的这样,那无疑的就需要一个开源的、便宜的“安卓”来真正启动这种落地。没想到的是这还没过去一个月,LLaMA 2出现了,并且表现优异。那LLaMA 2会在AI行业里扮演移动互联网中安卓的角色么?(其它如chatGPT 和AlphaGo下围棋,谁赢?垂域大模型有戏么?等一系列与此有关的大模型文章参见个人公号:琢磨事

安卓与历史性时刻

整个移动互联网有两个至关重要的历史性时刻:一个是iPhone的发布,这伴随着乔布斯而载入史册;一个则是同年Android的发布,相比之下这个则有点默默无闻。但实际上对于移动互联网而言,后者的实际影响大于前者。每年全球手机销量里面15%左右为苹果手机,其它基本是安卓手机。

换句话说,没有安卓就没有移动互联网。

那安卓这类操作系统到底是什么?为什么这么关键?我们来简单科普下操作系统的概念。

开源大模型LLaMA 2会扮演类似Android的角色么?,开源,llama,android,人工智能,chatgpt

(操作系统最简示意图)

这个图不十分精确,Kernel(内核)那个位置通常还有非常复杂的各种模块,但好在它能清楚说明操作系统是什么。安卓就处于中间的Kernel那个位置,对上面的各种应用比如微信、抖音来讲,他们其实根本接触不到麦克风、摄像头、内存、网络等,所有对具体物理设备的使用都要通过安卓这样的系统。

这样的分工好处是什么呢?

降低开发和应用成本。在IT行业的早期没有上面的分工,通常都是一个公司(比如IBM)把所有事都干了。这就导致对人员要求非常高。纯粹从技术复杂度角度看开发一般终端应用的难度如果是1,那很多操作系统里模块的开发难度估计是10,并且两者的难度不在一个维度上。同时操作系统只有1个,但应用会有无数个(安卓--应用商店)。所以就需要一种更为高效的分工方式,于是行业再分工,操作系统出现了。

高效的分工体系才能导致整个生态的大发展,对于移动互联网安卓就是生态大发展的最关键支点。如果微信团队需要自己做安卓,那很可能我们就看不见微信了。

如果说技术意义上的操作系统是上面那张简图,那商业意义上的操作系统则是一个引擎,为所有应用提供动力,缩减它们的开发成本、缩短周期。

大模型扮演的就是这个角色,但如果它只有一个(chatGPT),并且只是OpenAI自己用,那就像只有iOS一样,根本就造不出来五花八门的手机,也就不会有移动互联网的真正启动。

过去基于chatGPT根本没法打造沃森这样的系统,各种数据风险的考量根本不是一个技术进步就能对冲掉的,谁愿意把数据都上传到OpenAI呢,谁愿意依赖一个完全不知道的黑盒呢!

但在过去别的大模型又太差了,LLaMA 2在改变这种局面,从评测看它基本赶上GPT3.5,,也就是说在创造价值的维度它变的能用了,在落地的维度又因为开源而能对冲风险上的顾虑。再发展下去就真的会变成一个新智能生态的引擎,类似安卓的角色。

在前面系列文章里面也曾经多次提到我们普遍的看待大模型的方式是有问题的。如果就看到技术和能力,而看不到它的落地需要一套复杂系统做支撑,那就搞不清它的真正价值创造方式,就会争论是屁胡还是什么,但其实并不对。

人工智能应用会大爆发么?

如果评测结果无误,那现在就需要开始在不同的领域打造一个个类似沃森的系统。否则可能就晚了。

大模型很关键,提供了打造智能型应用的机会,但就像移动互联网上真正有价值的是微信而不是一个裸的安卓一样,大模型也需要在它上面长出自己的应用。用系统的思维模式很容易看到这类系统型超级应用的关键点。我们换一张图来对此进行说明。

开源大模型LLaMA 2会扮演类似Android的角色么?,开源,llama,android,人工智能,chatgpt

(Alexa基础架构,本质和安卓一样)

上图是亚马逊Alexa的基础架构图,为什么用它呢,因为Alexa是现在为止最像云端操作系统的一个产品。

实际上OpenAI的插件骨子里也是这模式。可以这么讲从大模型的角度看OpenAI的远胜,这种智能的进步大幅缩减应用(上图中的Alexa Skills Kit)的开发成本,但从系统完备性的角度看OpenAI还有很长一段路要走,比如对大规模设备的介入和管控等。

基于这种架构图很容易看出基于大模型的超级应用的关键点:

大模型:会处于中间的部分,负责提供通用智能的能力。也要与其它各类算法相配合,比如感知类算法、推荐类算法等。上图中针对交互做了一点分解,分成:语音识别(ASR)和自然语言理解,后者会完全被大模型取代,但不会改变架构。

AIoT基础设施:为了支撑大模型跑好并且和另外几部分连接起来,AIoT用的东西一个也缺不了,包括大规模设备管理通讯等。这些部分加起来才是过去系统的Kernel,也就是安卓所扮演的角色(上图中间的部分)。

用户侧(上图右侧):要提供充分感知,这种感知要有时间维度和空间维度,要有现场和历史数据。我们和智能音箱进行交互的时候,先要喊一嗓子,比如小爱同学等,它要听不到不管后面大模型多厉害也是不行。然后交互的时候肯定需要这个人的建模数据(历史)以及位置等,然后才能做好内容输出。不同场景下这部分会有比较大差别,比如沃森的场景可能就需要个人的24小时心电图、病史以及基因数据。这些部分非常关键,需要综合应用IoT和各种算法才能达成目标。大模型在这个环节扮演的角色没那么关键。

应用侧(上图左侧):智能音箱的场景就需要对接各种数据源(chatGPT的插件就干这事的),总不能天气也靠大模型来生成吧。对于沃森类系统这里就需要行业数据和法规等。

相比于过去应用侧在变薄,但问题是三个部分整个加一起才是智能云系统下的应用,非要类比的话这种新应用的创建有点像需要打造一个个属于特殊领域的手机。

有无数个领域需要这种系统型超级应用,医疗、教育、税务、企业、零售、军事、家居等,很久以前DeepMind甚至还尝试过给Google数据中心做个这样的应用来管空调。

人工智能应用确实会大爆发,在过去大模型是起点和障碍,而不是应用本身。LLaMA 2提供了跨越低成本跨越这种障碍的可能性。

普遍盈利(break-even)会来么?

在此前的系列文章中我多次总结:从商业角度看,人工智能过去10年的创业其实集体性失败了,因为没跑通任何一个像样的商业模式。而真自己做大模型的企业短期亏损会加剧,因为投入增加并且经常会被归零,而议价权并不会增加。

那现在看这会有什么变化么?

有点变化,但不是对做大模型的公司,而是对应用大模型的公司。

可以更低成本创造一种效力巨大的系统型超级应用,甚至可以简单用等于多少人来衡量其效果和商业价值。如果LLaMA 2继续再进展下去,那相当于这个超级应用总是可以用便宜却更强劲的引擎。

这时候整体成本可控了,周边的部分也需要投入,但不会像大模型研发那样导致投入产出高度失衡。

这时候效果明显了,过去的AI算法其实解决了一些不痛不痒的问题,不创造商业上的核心价值,做闸机和智能音箱能创造什么核心价值?但现在不一样,大模型在技术上的进展保证了,在用和不用上会导致大刀对坦克的差异。比如对企业而言谁能想象电脑、互联网全部都不用的企业?

更关键在于数据飞轮的Key看着是在做出系统型超级应用的企业手里,这导致上限会比较高。

琢磨事上马斯克首先是个商人,从xAI发布说起里我画了一张这样的图:

开源大模型LLaMA 2会扮演类似Android的角色么?,开源,llama,android,人工智能,chatgpt

(数据飞轮的三个阶段)

每一个大模型每个领域中最终追求的一定是把这个数据飞轮跑起来,但很遗憾的是到目前为止好像除了AlphaGo别的就没跑起来过。

可这不意味着未来也这样,谁在未来能把它先跑起来,谁就是那个领域的冠军,也就赢了。

现在产业链条上谁最可能把这个飞轮跑起来?

显然是成功落地系统型超级应用的人,他们才是拥有场景和用户的人。

若干年后,回看我们可能会认为LLaMA 2是一个类似2007年安卓发布的时刻。

小结

我个人前十年主要做系统,中间做了阵战略投资,后十年主要就做人工智能的产研,可能是这种背景的原因导致我越看大模型商业化的路径越觉得是系统型超级应用。希望对此感兴趣的同学和我联系,共同探讨如何在新技术要素下确立新的商业模式。确实,像DeepMind那哥们说的:不要扯图灵测试了,现在核心是看看能不能终结人工智能行业的十年亏损,这更关键些!

其它大模型相关文章,涉及团队组织等其它方面,标题有点热闹,内容不是:

chatGPT 和AlphaGo下围棋,谁赢?垂域大模型有戏么?

AI大模型没有商业模式?

从教育到就业,AI大模型到真产生影响还有多远

是时候摒弃黑暗森林式思维了,从瓦格纳反叛开始说

马斯克首先是个商人,从xAI发布说起

碳基中心 VS 硅基中心:把Vision Pro和便利蜂放一起比比

AI带来了巨大的机遇,未能善用AI的企业将面临衰退文章来源地址https://www.toymoban.com/news/detail-615457.html

到了这里,关于开源大模型LLaMA 2会扮演类似Android的角色么?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 免费商用 Meta 发布开源大语言模型 Llama 2

    Meta 和微软深度合作,正式推出下一代开源大语言模型  Llama 2 ,并宣布免费提供给研究和商业使用。   Llama 2 论文地址:Llama 2: Open Foundation and Fine-Tuned Chat Models 据介绍,相比于 Llama 1, Llama 2 的训练数据多了 40%,上下文长度是 Llama 1 的 2 倍 ,并采用了分组查询注意力机制。

    2024年02月15日
    浏览(42)
  • Meta发布升级大模型LLaMA 2:开源可商用

    论文地址 :https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/  Github 地址 :https://github.com/facebookresearch/llama LLaMA 2介绍       Meta之前发布自了半开源的大模型LLaMA,自从LLaMA发布以来,基于它的扩展模型就层出不穷,尤其是羊驼系列,我最近正在总结这

    2024年02月16日
    浏览(35)
  • 最新开源!更擅长推理的LLaMA大模型,支持中文

    ©PaperWeekly 原创 · 作者 |  李忠利 研究方向 |  自然语言处理 跟大家介绍一下自己最近训练的 LLaMA 模型——BiLLa: A Bilingual LLaMA with Enhanced Reasoning Ability. Github 地址:  https://github.com/Neutralzz/BiLLa  HuggingFace 模型:   https://huggingface.co/Neutralzz/BiLLa-7B-LLM(语言模型 BiLLa-7B-LLM) 

    2024年02月09日
    浏览(49)
  • 开源语言大模型演进史:向LLaMA 2看齐

    本文是开源 LLM 发展史系列文章的第三部分。此前,第一部分《 开源语言大模型演进史:早期革新 》回顾了创建开源 LLM 的最初尝试。第二部分《 开源语言大模型演进史:高质量基础模型竞赛 》研究了目前可用的最受欢迎的开源基础模型(即已进行预训练但尚未微调或对齐

    2024年02月05日
    浏览(49)
  • 最强英文开源模型LLaMA架构探秘,从原理到源码

    导读: LLaMA 65B 是由Meta AI(原Facebook AI)发布并宣布开源的真正意义上的千亿级别大语言模型,发布之初(2023年2月24日)曾引起不小的轰动。LLaMA的横空出世,更像是模型大战中一个搅局者。虽然它的效果(performance)和GPT-4仍存在差距,但GPT-4毕竟是闭源的商业模型,LLaMA系列

    2024年02月04日
    浏览(41)
  • C#开源项目:私有化部署LLama推理大模型

    推荐一个C#大模型推理开源项目,让你轻松驾驭私有化部署! 01 项目简介 LLama是Meta发布的一个免费开源的大模型,是一个有着上百亿数量级参数的大语言模型,支持CPU和GPU两种方式。 而LLamaSharp就是针对llama.cpp封装的C#版本,让方便我们基于C#开发应用,让我们不需要自己编译

    2024年02月03日
    浏览(65)
  • Mistral 7B 比Llama 2更好的开源大模型 (三)

    Mistral 7B 比Llama 2更好的开源大模型 Mistral 7B是一个70亿参数的语言模型,旨在获得卓越的性能和效率。Mistral 7B在所有评估的基准测试中都优于最好的开放13B模型(Llama 2),在推理、数学和代码生成方面也优于最好的发布34B模型(Llama 1)。Mistral 7B模型利用分组查询注意力(G

    2024年02月05日
    浏览(41)
  • 一个开源的大型语言模型LLaMA论文简单解读,LLaMA: Open and Efficient Foundation Language Models

    返回论文和资料目录 LLaMA 是 Meta AI 发布的包含 7B、13B、33B 和 65B 四种参数规模的基础语言模型集合,LLaMA-13B 仅以 1/10 规模的参数在多数的 benchmarks 上性能优于 GPT-3(175B),LLaMA-65B 与业内最好的模型 Chinchilla-70B 和 PaLM-540B 比较也具有竞争力。开源的代码在github上可以很方便获得

    2024年02月09日
    浏览(51)
  • DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2

    自从 LLaMA 被提出以来,开源大型语言模型(LLM)的快速发展就引起了广泛研究关注,随后的一些研究就主要集中于训练固定大小和高质量的模型,但这往往忽略了对 LLM 缩放规律的深入探索。 开源 LLM 的缩放研究可以促使 LLM 提高性能和拓展应用领域,对于推进自然语言处理

    2024年02月02日
    浏览(66)
  • 本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama

    在过去的几个月里,大型语言模型(llm)获得了极大的关注,这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员。 大型语言模型(llm)是指能够生成与人类语言非常相似的文本并以自然方式理解提示的机器学习模型。这些模型使用广泛

    2024年02月11日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包