小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源

这篇具有很好参考价值的文章主要介绍了小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今日,扎克伯格在Instagram上通过一则视频官宣,Meta要进军AGI了!

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

扎克伯格认定Meta的长期愿景是构建通用智能,将其负责任地开源,使其广泛可用并造福全人类,扎克伯格还透露了以下几点信息:

1、将两大 AI 研究团队 FAIR 和 GenAI 进行更紧密的整合,以此构建完整的通用智能,并尽可能地开源。

2、Meta正在训练Llama 3;

3、Meta正在构建大规模的计算基础设施,到今年年底要部署35万台H100,如果算上其他GPU,总共有相当于60万台H100s算力。

4、Meta对在构建新的以AI为中心的计算设备(如雷朋Meta智能眼镜)取得的进展感到兴奋,未来还会有更多进展。

对于Meta的最新大动作,图灵奖得主、Meta的首席人工智能科学家 Yann LeCun在推特上表示:

1、FAIR 的使命是开发人类水平(能够理解世界、感知、记忆、推理、计划和行动)的AI助手。在不远的将来,我们与数字世界的所有互动都将由AI通过智能眼镜和其他设备进行连接。
2、为了加快进展,FAIR 现在成为AI产品部门 GenAI 的姐妹组织。
3、与此同时,Meta 正在构建庞大的计算基础设施来支持人工智能的研究、开发。
4、我们致力于开放研究和开源人工智能平台(是的,Llama-3 即将到来!)

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

抢夺AI人才至关重要

扎克伯格在一次独家采访中表示,“为了构建我们心中理想的产品,我们意识到必须将眼光瞄准AGI。这对吸引顶尖人才的加入非常重要,因为许多顶尖的研究人员都是渴望挑战更加宏大的目标。”

实际上,在Meta之前,OpenAI早就公开宣称其使命就是是创造AGI。

而从23年一份顶级AI公司薪资报告中可以看出,Meta的AI部门 FAIR 的薪水相比OpenAI差距太多,这会大大影响对顶尖AI人才的吸引程度。

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

会开源AGI,并讽刺某机构不再开源

截止到今天,包括扎克伯格在内的许多AI界人士似乎对AGI都还没有一个清晰、完备的定义,也不确定它何时会实现。扎克伯格表示,他无法用一句话给AGI下定义。他认为AGI的关键在于其广泛、能持续进步的能力,例如推理和直觉,AGI的发展更应该是一个逐步过程,而非某个特定时间点的突破。

尽管扎克伯格尚未制定出实现AGI的具体规划,但他强调,Meta的目标是开发行业内最先进、最领先的模型,这是构建更高级的AGI的关键。

扎克伯格在谈到AGI的控制权时指出,“它”会集中在少数手中,但他支持开源的理念,他认为开源和开放对创新和公平获取技术至关重要。他暗示,有些公司最初承诺开源他们的模型,但后来却变得封闭。

他还指出,领先的AI公司通常也是最倡导设置AI安全措施的。“有些公司可能真的很关心安全,但这也恰好符合他们的商业策略。”

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

Meta仍是元宇宙公司?

扎克伯格将公司重命名为Meta元宇宙已经两年过去了,目前看来,Meta这次要进军AGI新方向似乎有些尴尬,但却是不得已之举。

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

扎克伯格表示:“Meta 仍然致力于成为一个元宇宙公司和全球最大的社交媒体公司,同时正在努力构建AGI。 Meta未来每年会保持超150亿美元在Reality Labs和元宇宙的投入。”

扎克伯格设想的未来是AI生成的虚拟世界,里面AI角色和真人共存。他透露Meta 将在今年推出新平台,任何人都能创建AI角色,并应用于 Meta的社交平台。这些AI角色甚至可能在 Facebook、Instagram和Threads上发布自己的内容。

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

要屯够60万块GPU,英伟达或成最大赢家

除了人才战,AI领域最为稀缺的资源是训练和运行大模型所需的算力。对此,扎克伯格透露,截止到24年年底,Meta将部署35万块英伟达 H100 GPU,并且总数将拥有近60万块GPU。

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

有网友吐槽,怪不得我们搞不到英伟达的显卡,原来都被Meta买走了!

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

最后,Meta能不能构建出AGI出来我们暂且不确定,但是英伟达或许成为最大赢家。

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama

小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源,agi,llama 文章来源地址https://www.toymoban.com/news/detail-822829.html

到了这里,关于小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 结合OpenAI、Google、Meta发布Sora、Gemini Pro 1.5、V-JEPA,分析三家AGI路线及当前情势

    这里是陌小北,一个正在研究硅基生命的碳基生命。正在努力成为写代码的里面背诗最多的,背诗的里面最会写段子的,写段子的里面代码写得最好的…厨子。 昨天整理每周新闻,发现2024年2月15日是个大日子,三大科技巨头Google、Meta和OpenAI同时发布了他们的最新技术成果:

    2024年02月21日
    浏览(42)
  • Meta Llama 3 简介

    本文翻译自:https://ai.meta.com/blog/meta-llama-3/ 今天,我们将介绍 Meta Llama 3,它是我们最先进的开源大型语言模型的下一代。 Llama 3 模型即将在 AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM 和 Snowflake 上推出,并得到 AMD、AWS、Dell、Intel、NVIDIA 和高

    2024年04月24日
    浏览(42)
  • [AI Meta Llama-3] 最强开源大模型Llama 3发布!

    最强开源大模型Llama 3发布!我们看下重点: 今天,我们介绍Meta Llama 3,这是我们最先进的开源大型语言模型的下一代。 Llama 3模型很快将在AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM和Snowflake上提供,并得到AMD、AWS、戴尔、英特尔、NVIDIA和高

    2024年04月23日
    浏览(45)
  • Meta发布LLaMA 2:分析及解读

    Meta发布了LLaMA的新版本。该版本将被称为LLaMA 2,并且可以免费用于研究和商业用途。这是Meta和Microsoft联合发布的成果。 我认为微软希望垄断所有第三方LLM,并将它们作为SaaS(软件即服务)保留在自己的平台上作为商业产品。现在,OpenAI和LLaMA都将成为微软产品系列的一部分

    2024年02月14日
    浏览(48)
  • Meta最新模型LLaMA详解(含部署+论文)

    来源:投稿 作者:毛华庆 编辑:学姐 本课程来自深度之眼《大模型——前沿论文带读训练营》公开课,部分截图来自课程视频。 文章标题: LLaMA: Open and Efficient Foundation Language Models 向量空间中词表示的有效估计 文章链接: https://arxiv.org/pdf/2302.13971.pdf 作者: Hugo Touvron等 单

    2024年02月08日
    浏览(45)
  • Meta的 Llama-3 在线使用与下载

    2024年4月19日,全球社交巨头Meta在他们的官网,正式发布了开源大模型 Llama-3 !! 该版本包括预训练和指令调整的 Llama 3 语言模型的模型权重和起始代码 - 包括 8B 到 70B 参数! Llama 3 在 24K GPU 集群上训练,使用了 15T 的数据,提供了 8B 和 70B 的预训练和指令微调版本,可以支

    2024年04月27日
    浏览(38)
  • Meta 最新发布 LLaMA 2(允许商业化)

    2023年7月18日,Meta 发布了Llama 2,包含7B,13B,70B三种参数(34B暂时还未发布)。 官方: https://ai.meta.com/llama/ 论文:Llama 2: Open Foundation and Fine-Tuned Chat Models 模型:https://huggingface.co/meta-llama github:https://github.com/facebookresearch/llama Llama 2相比Llama最大亮点之一是允许商业化,但需要

    2024年02月16日
    浏览(52)
  • Meta 推出的 LLaMA 大语言模型部署教程

    简介: LLaMA(Lager Language Model From Meta),这是一个从7B到65B参数的基础语言模型的集合。它在数万亿的文本tokens上训练的模型,并表明在不求助于专有和不可访问的数据集,而仅使用公开的数据集来训练最先进的模型是可能的。特别是, LLaMA-13B 在大多数基准测试上优于GPT-3(

    2024年02月06日
    浏览(39)
  • 【Meta-Al】llama GPT 测试

    2023-4-28 更新: github有兄弟合并+量化了7B、13B的权重,Chinese-Alpaca项目部署体验更简单: GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMAAlpaca大语言模型+本地CPU/GPU部署 (Chinese LLaMA Alpaca LLMs)   github地址: GitHub - facebookresearch/llama: Inference code for LLaMA models 在 LLaMA 发布三天后,初创公司 N

    2024年02月11日
    浏览(38)
  • LLaMA模型泄露 Meta成最大受益者

    一份被意外泄露的谷歌内部文件,将Meta的LLaMA大模型“非故意开源”事件再次推到大众面前。“泄密文件”的作者据悉是谷歌内部的一位研究员,他大胆指出,开源力量正在填平OpenAI与谷歌等大模型巨头们数年来筑起的护城河,而最大的受益者是Meta,因为该公司2月意外泄露

    2024年02月12日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包