商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)

这篇具有很好参考价值的文章主要介绍了商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)

获取更多资讯,赶快关注上面的公众号吧!

  本篇论文作为商简智能的最新研究成果,发表于运筹学顶刊《INFORMS JOURNAL ON APPLIED ANALYTICS》,首次将深度强化学习落地于大规模制造调度场景,该先进排程项目入围国际运筹学权威机构INFORMS运筹学应用最高奖——Franz Edelman Award,并作为制造业企业技术转型典型案例被人民日报等多家媒体广泛报道。

商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)

第一作者梁翼,商简智能CEO兼CTO,人工智能、运筹优化算法专家,取得浙大竺可桢学院物理学学士、McMaster理论物理硕士、University of Alberta高能物理学博士,为中国科学院大学博士后。在高能物理、人工智能等领域发表论文十余篇,平均引用率>15。曾任联想研究院AI lab首席算法研究员,专注于人工智能在制造业的应用。

商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)

摘要

  联想研究院与联想最大电脑制造工厂联宝科技LCFC的运营组成员合作,采用基于深度强化学习架构的决策支持平台替代传统的手动生产调度。该系统可以调度工厂内所有43条装配制造线的生产订单,均衡产量、换型成本和订单交付率的相对优先级,利用深度强化学习模型求解多目标调度问题。该方法将高计算效率与一种新的掩码机制相结合以保证运行约束,从而避免机器学习模型将时间浪费在探索不可行解。通过使用该新模型,改变了原有的生产管理流程,使得生产订单积压减少了20%交付率提升了23%。还将整个调度过程从6小时缩短到30分钟,与此同时保留了多目标的灵活性,使工厂能够快速调整以适应不断变化的目标。该项研究工作在2019年和202年分别为工厂提升了19.1亿美元26.9亿美元的收入。

背景介绍

  联想合肥工厂LCFC是联想最大的电脑制造厂,其有4个制造工厂和43条装配生产线,平均每天大约接收5000个电脑订单,占据联想电脑生产的一多半和至少全球电脑的八分之一。这些电脑包含20多个产品系列550个产品型号。在生产之前,这些订单会被分解成生产工单(MO),一个订单可包含数千台电脑,每个工单中的电脑具有相同的型号和相近的承诺发货日期。

  电脑生产过程大致可以分为三个阶段:

  • 第一阶段:主板的生产由表面装配技术车间负责。这一阶段,生产以自动执行为主,稳定性高,不需要人为干预;
  • 组件车间完成生产的第二阶段,工人们将笔记本电脑的外壳与显示器和键盘连接起来;
  • 第三阶段即装配阶段,组装笔记本电脑的内部部件。这一阶段最耗时和最不稳定,需要大量的人工干预,因此该阶段的效率通常是整个制造过程的瓶颈

  第三阶段,根据工单将半成品和备件分配到43条产线,在这些产线上,工人依次处理每个工单,即当前工单完成装配后下一工单才能开始。特定电脑型号的组装效率可能因分配的生产线的不同而有所不同。每小时的产出(Unit-per-hour,UPH)矩阵表达了产品与产线的对应效率。UPH很容易受员工出勤率波动、生产线的机器状态以及工具和材料的可用性影响而变化。每个工单对应一个工件,如图1所示,工单4从产线B移动到产线A,因为UPH变大,所以生产时间变短。而且,工单在每条产线上的排序会严重影响总生产时间。
商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)

  当产线切换生产不同的型号时,会导致换型成本,通过合理的工单分派可以提升调度性能。考虑到生产线的数量和调度订单量,优化问题在计算上很难解决。因此第三阶段的装配段管理是所有联想工厂生产管理的重点和最具挑战性的部分。

传统方法无法解决现有挑战

  在联想,基于人类经验和判断的生产调度需要数小时的工作时间。由于生产资源供应的波动性,当今现代制造业企业面临着巨大的压力。因此,联想需要一个具有以下特点的生产管理系统:

  1. 能够解决大规模调度问题。对于联想这样生产越来越复杂的企业来说,一个工厂必须能够每天处理多达数万个订单;
  2. 快速反应能力。供应端的波动性要求生产调度系统快速响应组件供应的变化。联想之前的调度流程,是基于计划人员的经验和判断,无法及时、充分地应对供应端的变化;
  3. 更优的KPI绩效。可以同时优化总产量、订单交付率、换型成本等;
  4. 多标准优化目标的灵活配置能力。从机械工作中解放出来后,计划人员有更多的时间进行战略工作。他们可以通过与系统交互,积极参与决策过程;例如,他们可以配置KPI阈值和设置优化目标的相对优先级(权重)。这对于建立规划人员对系统的信任至关重要,通过该工作流程提高他们的工作满意度,并提高调度过程的效率。

  传统方法很难满足这样的需求。传统方法分为精确方法近似方法。精确方法如分支定界和割平面法,追求全局最优解,仅限于解决小规模问题。为了解决大规模问题,传统的解决方案开发人员通过基于规则或启发式的方法来寻求近似最优解。但是,有些近似方法如禁忌搜索/路径重链接在中小规模问题集上表现良好,但在解决大规模问题时往往太慢,无法满足快速响应时间的需求。其他可以在合理时间内解决大型和小规模问题的近似方法通常在KPI优化方面表现不佳。在处理多目标优化问题时,响应速度和解决方案质量之间的冲突比使用传统方法时更加明显。综上所述,传统方法的这些缺陷给联想供应链管理带来了相当大的挑战。

解决方案

  为了应对这些挑战,将**生产线计划问题(production line planning problem,PLPP)**问题建模为马尔科夫决策过程(MDP)。

  假设一个工厂具有 K K K条产线和 N N N个工单,该生产调度问题对应的MDP可以表示为 { X t , A , P , R } \left\{\mathbf{X}_{\mathbf{t}}, \mathbf{A}, \mathbf{P}, \mathbf{R}\right\} { Xt,A,P,R文章来源地址https://www.toymoban.com/news/detail-487268.html

到了这里,关于商简智能学术成果|基于深度强化学习的联想电脑制造调度(Lenovo Schedules Laptop Manufacturing Using Deep Reinforcement Learning)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 通用人工智能之路:什么是强化学习?如何结合深度学习?

    2015年, OpenAI 由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得·蒂尔等硅谷科技大亨创立,公司核心宗旨在于 实现安全的通用人工智能(AGI) ,使其有益于人类。 ChatGPT 是 OpenAI 推出的一个基于对话的原型 AI 聊天机器人,2022年12 月 1

    2024年02月16日
    浏览(40)
  • 通用人工智能技术(深度学习,大模型,Chatgpt,多模态,强化学习,具身智能)

    目录 前言 1.通用人工智能 1.1 生物学分析 1.2具身智能 1.2.1当前的人工智能的局限 1.2.2 具身智能实现的基础 1.2.3 强化学习(决策大模型) 2.结论 往期文章 参考文献       目前的人工智能实质上只是强人工智能,或者说单个领域的通用人工智能。比方说Chatgpt它属于自然语言

    2024年02月07日
    浏览(54)
  • 深度强化学习与人工智能:如何实现高效的资源分配

    深度强化学习(Deep Reinforcement Learning, DRL)是一种人工智能技术,它结合了深度学习和强化学习两个领域的优点,以解决复杂的决策问题。在过去的几年里,DRL已经取得了显著的成果,例如在游戏、机器人控制、自动驾驶等领域的应用。在资源分配方面,DRL可以帮助企业更有效地

    2024年02月21日
    浏览(50)
  • 深度强化学习在虚拟现实领域的进展:智能体验的发展

    虚拟现实(VR)技术的发展已经进入了一个新的高潮,它正在改变我们的生活方式和工作方式。虚拟现实技术可以让我们在虚拟世界中与其他人互动,体验各种各样的场景和情境。然而,为了让虚拟现实更加智能化和自然化,我们需要开发更先进的算法和技术来让虚拟现实系统更

    2024年02月22日
    浏览(34)
  • (9-5)基于深度强化学习的量化交易策略(OpenAI Baselines +FinRL+DRL+PyPortfolioOpt):深度强化学习算法模型

    本项目的深度强化学习算法的是基于Stable Baselines实现的,Stable Baselines是OpenAI Baselines的一个分支,经过了重大的结构重构和代码清理工作。另外,在库FinRL中包含了经过调优的标准深度强化学习算法,如DQN、DDPG、多智能体DDPG、PPO、SAC、A2C和TD3,并且允许用户通过调整这些深度

    2024年01月25日
    浏览(35)
  • 基于深度强化学习的目标驱动型视觉导航泛化模型

    参考论文《Towards Generalization in Target-Driven Visual Navigation by Using Deep Reinforcement Learning》   目标是仅使用视觉输入就能导航并到达用户指定目标的机器人,对于此类问题的解决办法一般有两种。 将经典导航系统与目标检测模块结合起来。 基于地图的导航算法或者SLAM系统与最

    2024年02月06日
    浏览(39)
  • 基于深度强化学习(DQN)的迷宫寻路算法

    QLearning方法有着明显的局限性,当状态和动作空间是离散的且维数不高时可使用Q-Table存储每个状态动作的Q值,而当状态和动作时高维连续时,该方法便不太适用。可以将Q-Table的更新问题变成一个函数拟合问题,通过更新参数θ使得Q函数逼近最优Q值。DL是解决参数学习的有效

    2023年04月22日
    浏览(56)
  • 基于智能家居控制器的智能家居智能化控制:基于强化学习技术

    引言 1.1. 背景介绍 随着科技的发展,智能家居逐渐成为人们生活中不可或缺的一部分。智能家居通过引入各种智能化设备,如智能门锁、智能照明、智能空调等,使人们的生活更加便捷、舒适。然而,智能家居的复杂性导致用户在控制过程中面临诸多困难,如操作复杂、界面

    2024年02月11日
    浏览(37)
  • 基于注意力神经网络的深度强化学习探索方法:ARiADNE

    参考论文:Cao Y, Hou T, Wang Y, et al. Ariadne: A reinforcement learning approach using attention-based deep networks for exploration[J]. arXiv preprint arXiv:2301.11575, 2023. 2023 IEEE International Conference on Robotics and Automation (ICRA 2023) ARE的传统边界法 自主机器人探索(Autonomous robot exploration, ARE) 目标: ARE的目标是规

    2024年02月12日
    浏览(30)
  • 从人工智能到机器学习到深度学习、强化学习,以及相关的算法原理、应用场景等方面对人工智能技术的研究进行全面的综述

    作者:禅与计算机程序设计艺术 2021年是一个重要的历史节点,数字化时代正在席卷全球各个角落。大数据、云计算、区块链等新兴技术带动着各行各业的变化与革命,机器学习(ML)、深度学习(DL)、强化学习(RL)等AI技术也越发成熟。随之而来的,伴随着人工智能应用的

    2024年02月07日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包