李沐大模型公司细节曝光,项目GitHub空仓标星超500

这篇具有很好参考价值的文章主要介绍了李沐大模型公司细节曝光,项目GitHub空仓标星超500。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

AI大神李沐大模型创业方向,终于“水落石出”:

利用大模型能力,做游戏引擎,且是面向4A游戏

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

关于4A游戏这个概念,目前业内没有统一的“名词解释”,但通常理解为比3A游戏更强大一点的游戏(doge)。

被曝从亚马逊首席科学家的职务上离职后,李沐联手其导师、另一位亚马逊出身AI大牛Alex Smola的创业公司Boson.ai既没有高调露面,也没有什么隐秘爆料跟上。

外界只能从领英和公司极简风的官网上得知,公司方向是“scalable foundation models”(可扩展基础模型)。

而且是面向所有人(for everyone)那种。

现在,“大家的李沐老师”正在做的事情逐步清晰,AIGC for 游戏。

以及来自投资市场的消息,为了顺利推进这个目标,Boson.ai后来招贤纳士,吸纳了一位游戏方面的大牛坐镇公司联创

——毕竟粗扫一遍发现,在过去,李沐和Smola没什么与游戏技术直接紧密关联的经历。

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

目前尚不清楚Boson.ai选择这条创业路线的准确原因,但大模型在游戏引擎上能够释放的能力,还是很明晰的。

比如最直给的创意生成和编辑能力,还有语音指令控制能力;

又或者是为游戏NPC赋予AI的灵魂,形成一个个独特的Agent,增强玩家的互动性和可玩空间等等。

……

总之,它能够让开发者对前端框架知识的门槛降低、效率提升。

而且要知道,上述例子仅仅是“大模型助力游戏引擎”已经露出水面的一角,还有很多水面下的故事值得挖掘。

话说回来,这家创业10个多月还神神秘秘的公司,为什么值得关注和期待?

为什么值得持续关注?

原因之一,就是李沐和Alex Smola都是AI领域里有技术、有名气的大牛。

AI 2.0时代,创业赛道上众星云集,李沐和Alex Smola弃亚马逊入大模型,属于是有名气、有技术的人投身最明星的赛道,当然格外耀眼。

李沐,二者之间大家比较熟悉的那一位。

自己有很厉害的经历,加上在小破站传道授业,打下了响当当的知名度。

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

Alex Smola,更是一个AI届的神级大牛。

直接上数据:

Smola在Google Scholar上的被引用次数,超过17万次

其中,被引次数前三的所著论文,被引数统统破万。

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

除了是ML著作《动手学深度学习》的主要作者外,Smola这些年的履历也很值得好好了解一番——

1996年,Smola在慕尼黑工业大学完成硕士学业,而后又在柏林工业大学拿下计算机科学博士学位。

博士毕业后,他先后去往柏林GMD软件工程和计算机体系结构研究所、NICTA(澳大利亚信息与通信技术研究中心)工作。

2004年起,Smola在NICTA的统计机器学习项目中,担任高级首席研究员和项目负责人;到了2008年,Smola选择入职雅虎研究院

2012年春天到2014年年底,2年多的时间里,Smola的工作地点是谷歌研究院

期间,他开始担任CMU的教授。也是这个时候,他成为了李沐的博士导师,二人结缘。

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

2016年7月,Smola成为了亚马逊的一员,致力于构建AI和机器学习工具。

他的首要任务之一,是让AWS和开发者社区建立和保持联系

具体来说,他的工作是让更多的开发者共同建设亚马逊深度学习库MXNet。

离职创业前,Smola在亚马逊担任的职位是杰出科学家和副总裁。

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

值得一提的是,由于Smola在分布式深度学习框架领域曾提出并行LDA(Latent Dirichlet Allocation)的框架——这是参数服务器概念的最早来源,因此,Smola也被业界称为参数服务器之父。

参数服务器,以共享的形式实现不同节点之间数据交互的通信模式。

其采用了一种将模型参数中心化管理的方式,来实现模型参数的分布式存储和更新。

它的作用在于存储一些多节点共享的数据,常适用于存在数据共享的应用场景。

在大模型当道的现在,我们也可以说参数服务器的提出对大模型训练的性能和效果发挥着重要作用。

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github

另一个值得期待的原因,就是李沐和Smola师徒二人,此前有过一次还算成功的创业经历。

Smola是李沐在CMU读博期间的导师,那时候两人曾一同创办数据分析算法公司Marianas Labs,Smola任CEO,李沐任CTO。

李沐在《博士这五年》一文中提到,那次创业,他们拿了几十万投资,风风火火干了好一阵,最后把公司卖给了一家小上市公司。

结束这段创业经历后,两人才先后踏入亚马逊公司的大门。

直到今年2月,Smola在领英宣布离职,成立新公司并担任CEO。

他在领英资料里提到:

我们正在建造一个大项目……请继续关注。如果你想在可扩展基础模型上工作,请告诉我。

随后传出消息,这个“大项目”就是Smola和李沐的二次联手创业

不过直到现在,除了悄悄招人扩大团队以外,Boson.ai没有再多的公开大动作。

包括李沐的领英,最新动态仍然停留在他的亚马逊经历。

One More Thing

因此,在得知李沐老师要用大模型能力做游戏引擎后,我们第一时间兴奋地冲向了Boson.ai的GitHub主页。

有点遗憾,GitHub仓库和几个月前官宣时一样,没有什么新变化,也没有任何与游戏相关的蛛丝马迹。

但是就这么一个什么也没有的主页,已经有近500颗星了……

— 联系作者 —

李沐大模型公司细节曝光,项目GitHub空仓标星超500,github文章来源地址https://www.toymoban.com/news/detail-753997.html

到了这里,关于李沐大模型公司细节曝光,项目GitHub空仓标星超500的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • TinyLlama-1.1B(小羊驼)模型开源-Github高星项目分享

    简介 TinyLlama项目旨在在3万亿tokens上进行预训练,构建一个拥有11亿参数的Llama模型。经过精心优化,我们\\\"仅\\\"需16块A100-40G的GPU,便可在90天内完成这个任务🚀🚀。训练已于2023-09-01开始。 项目地址: https://github.com/jzhang38/TinyLlama/ 特点 采用了与Llama 2完全相同的架构和分词器。

    2024年02月01日
    浏览(34)
  • 【大模型】基于 LlaMA2 的高 star 的 GitHub 开源项目汇总

    2023年7月19日:Meta 发布开源可商用模型 Llama2。 Llama2 是一个预训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。 LLaMA2 的详细介绍可以参考这篇文章:【大模型】更强的 LLaMA2 来了,开源可商用、与 ChatGPT 齐平 下面介绍几个高 star 的 GitHub 开源项目: star 数

    2024年02月10日
    浏览(40)
  • git 推送到github远程仓库细节处理(全网最良心)

    我们先在github创建一个仓库,且初始化 readme 我们到本地文件初始化仓库 添加远程仓库 这时候我们就 git add . , git commit ,再准备 git push 的时候 显示没有指定远程的分支 我们按照提示操作 提示我们要先 git pull 提示我们要明确要pull 的分支对象 这时候又说不能合并不相关的历史

    2024年02月08日
    浏览(43)
  • 百万网友AI导师李沐离职投身大模型,B站“组会”还会有吗?(文末赠书)

    前阵子“沐神”李沐离开亚马逊、加入创业公司BosonAI的消息,引起了业内比较广泛的讨论。 而BosonAI的创始人正好是他的博士生导师亚历克斯·斯莫拉(Alex Smola),还在建设的官网信息显示公司是做AI大模型方向的研究。看来ChatGPT的爆火让人们意识到,加大模型、加多参数的

    2024年02月15日
    浏览(32)
  • unity 3d 场景变白了,模型发白,白花花一片,场景曝光了

    前面做了unity的三维场景,最近切换了unity for Intel和apple silicon的不同版本,发现我的场景变成了白花花的一片,超级曝光,运行程序也是一片的白,我的天呀。。。。 背景: 1,,unity 2021.3.5 for mac m1(apple silicon)非Intel 2,烘焙了灯光贴图。 疑似问题: 1,场景灯光;2,场景显示

    2024年02月11日
    浏览(33)
  • 【NLP相关】GPT-X合集:GPT类模型介绍(附相关论文和Github项目地址)

    ❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️ 👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈 GPT(Generative Pre-trained Transformer)是一类基于Transformer架构的预训练语言模型

    2024年02月01日
    浏览(56)
  • 【Swift】公司项目性能优化(一)

    随着项目开发接近了尾声,改Bug和性能优化成了工作的重中之重,移动端开发,最注重用户体验,一个丝滑般的应用程序能在用户心里加很多印象分。 1、优化列表的滑动速度 作为内容创作类的app,里面包含了大量的写作、画作、小说、动态等多种动态高度的样式;列表滑动

    2024年01月20日
    浏览(49)
  • (企业 / 公司项目)微服务项目解决跨域问题:

    前后端分离项目中前端出现了跨域的问题  在网关模块配置文件中添加 配置 application.properties

    2024年02月05日
    浏览(56)
  • 李沐论文精读系列五:DALL·E2(生成模型串讲,从GANs、VE/VAE/VQ-VAE/DALL·E到扩散模型DDPM/ADM)

    传送门: 李沐论文精读系列一: ResNet、Transformer、GAN、BERT 李沐论文精读系列二:Vision Transformer、MAE、Swin-Transformer 李沐论文精读系列三:MoCo、对比学习综述(MoCov1/v2/v3、SimCLR v1/v2、DINO等) 李沐论文精读系列四:CLIP和改进工作串讲(LSeg、GroupViT、VLiD、 GLIPv1、 GLIPv2、CLIPas

    2024年02月10日
    浏览(42)
  • 文心一言迭代数据曝光,QPS提升10倍,留给大模型创业玩家的涌现时间不多了...

    杨净 发自 凹非寺 量子位 | 公众号 QbitAI 文心一言上线内测一个月后,首份迭代数据曝光: 一个月共迭代4次; 模型推理效率提升10倍,最近一次带来的推理提升达到123%; 推理性能提升50%,模型算力利用率提升1倍。 简单归纳就是说,迭代很快、不仅成本降下来了,顺便还把

    2024年02月10日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包