多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

这篇具有很好参考价值的文章主要介绍了多项创新技术加持,实现零COGS的Microsoft Editor语法检查器。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

编者按:Microsoft Editor 是一款人工智能写作辅助工具,其中的语法检查器(grammar checker)功能不仅可以帮助不同水平、领域的用户在写作过程中检查语法错误,还可以对错误进行解释并给出正确的修改建议。神经语法检查器模型是这款提供了强大拼写检查和语法纠正服务的 Microsoft Editor 背后的关键技术,该模型采用了微软亚洲研究院创新的 Aggressive Decoding 算法,并借助高性能 ONNX Runtime(ORT) 进行加速,使服务器端的模型推理速度提升了200%,在不损失模型预测质量的情况下,节省了三分之二的成本。神经语法检查器模型还使用了微软亚洲研究院前沿的客户端 seq2seq 建模技术 EdgeFormer,构建了性能优异的轻量级生成语言模型,结合部署中的模型和系统优化,该技术可赋能用户在设备上的部署,从而实现零销货成本(zero-COGS, zero-cost-of-goods-sold)的目标。本文编译自微软研究院博客 “Achieving Zero-COGS with Microsoft Editor Neural Grammar Checker”。


自上世纪70年代以来,语法检查器(grammar checker)所依赖的技术已经取得了显著的发展,最初的第一代工具只是基于简单的模式匹配(pattern matching)。1997年,一个标志性的事件发生了,当时 Microsoft Word 97 引入了一个基于成熟的自然语言处理系统(Heidorn, 2000)的语法检查器,以支持更复杂的错误检测和修改,并提高了准确率。2020年,语法检查器再次实现关键性突破,微软推出了神经语法检查器(neural grammar checker),通过利用深度神经网络和全新的流畅度提升学习和推理机制,神经语法检查器在 CoNLL-2014 和 JFLEG 基准数据集上均取得了 SOTA 结果[1, 2]。2022年,微软发布了高度优化后的 Microsoft Editor 神经语法检查器,并将其集成到 Word Win32、Word Online、Outlook Online 和 Editor Browser Extension 中。

如今 Microsoft Editor 版本中的神经语法检查器模型主要采用了微软亚洲研究院创新的 Aggressive Decoding 算法,而且借助高性能 ONNX Runtime(ORT)进行加速,可以使服务器端模型的推理速度提升200%,在不损失模型预测质量的情况下,节省了三分之二的成本。此外,该神经语法检查器模型还使用微软亚洲研究院前沿的客户端 seq2seq 建模技术 EdgeFormer,构建了性能优异的轻量级生成语言模型,结合部署过程中设备开销感知的模型和系统优化,该技术满足交付要求,赋能用户设备上的部署,最终实现了零销货成本(zero-COGS, zero-cost-of-goods-sold)的目标。

不仅如此,Microsoft Editor 中的神经语法检查器模型在转换为客户端模型后,还有三个优势:

1. 提升隐私性。客户端模型在用户设备本地运行,无需向远程服务器发送任何个人数据。

2. 增强可用性。客户端模型可以离线运行,不受网络连接、带宽或服务器容量的限制。

3. 降低成本、提高可扩展性。客户端模型运行在用户设备上,省去了服务器执行所需的所有计算,从而可以服务更多客户。

另外,Microsoft Editor 还使用了 GPT-3.5 模型来生成高质量的训练数据来识别和移除低质量的训练示例,从而提升模型的性能。

Aggressive Decoding 算法具有巨大价值,它不仅适用于 Microsoft Editor 这样对响应时间、请求频率和准确度都有很高要求的应用场景,还可以拓展到更多功能模块,如文本重写、文本摘要等。Aggressive Decoding 算法让我们能够在保证模型预测质量不受损的同时更快地服务更多的客户,降低服务成本并提高产品的竞争力和影响力, 这一创新技术也将在未来的客户端模型研发中发挥重要作用。

—— 陈思清,微软首席应用科学家

Aggressive Decoding:首个在seq2seq任务上无损加速的高效解码算法

Microsoft Editor 中的人工智能语法检查器主要基于 Transformer 模型,并采用了微软亚洲研究院在语法纠错方面的创新技术[1, 2, 3]。与大多数 seq2seq 任务一样,Microsoft Editor 此前的模型使用了自回归解码来进行高质量的语法校正。然而,传统的自回归解码效率很低,尤其是由于低计算并行性,导致模型无法充分利用现代计算设备(CPU、GPU),从而使得模型服务成本过高,并且难以快速扩展到更多终端(Web/桌面)。

为了降低服务成本,微软亚洲研究院的研究员们提出了创新的解码算法 Aggressive Decoding[3]。与之前以牺牲预测质量为代价来加速推理的方法不同,Aggressive Decoding 是首个应用在 seq2seq 任务(如语法检查和句子重写)上达到无损加速的高效解码算法。它直接将输入作为目标输出,并且并行验证它们,而不是像传统的自回归解码那样逐个顺序解码。因此,这一算法可以充分发挥现代计算设备(如带有 GPU 的 PC)强大的并行计算能力,极大地提升解码速度,能够在不牺牲质量的前提下以低廉的成本处理来自全球用户(每年)数万亿次的请求。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图1:Aggressive Decoding 的工作原理

如图1所示,如果模型在 Aggressive Decoding 过程中发现了一个分歧点,那么算法将舍弃分歧点后的所有预测,并使用传统的逐个自回归解码重新解码。如果在逐个重新解码时发现了输出和输入之间存在唯一的后缀匹配(图1中蓝色点线突出显示的建议),那算法会通过把输入的匹配字符(token)之后的字符(图1中用橙色虚线突出显示的部分)复制到解码器的输入中并假设它们是相同的,从而切换回 Aggressive Decoding。通过这种方式,Aggressive Decoding 可以确保生成的字符与自回归贪婪解码一致,但解码步骤大幅减少,显著提高了解码效率。

我们在做模型推理加速算法研究时最重要的考虑就是无损,因为在实际应用中,模型生成质量是排在第一位的,以损失质量来换取更小的开销会严重影响用户体验。为此,我们提出了 Aggressive Decoding 算法,它利用了语法纠错任务的一个重要特性,即输入与输出高度相似,将整个计算过程(pipeline)高度并行化,充分利用 GPU 在并行计算上的优势,在生成质量无损的前提下实现大幅加速的效果。

—— 葛涛,微软亚洲研究院高级研究员

离线+在线评估结果:Aggressive Decoding可显著降低COGS

离线评估:研究员们在语法校正和其他文本重写任务如文本简化中,采用了一个6+6标准的 Transformer 及深度编码器和浅层解码器的 Transformer 来测试 Aggressive Decoding。结果表明 Aggressive Decoding 可以在没有质量损失的情况下大幅提升速度。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

表1:6+6标准 Transformer 测试结果

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

表2:深度编码器和浅层解码器的 Transformer 的测试结果

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图2:Aggressive Decoding 算法在更强大的并行计算设备上的运行效果更好

在线评估:研究员们还在 Marian 服务器模型和使用 ONNX Runtime 的 Aggressive Decoding 的同等服务器模型之间进行了 A/B 实验。结果如图3所示,与在 CPU 中使用传统自回归解码的 Marian 运行时相比,后者在 p50 延迟上有超过2倍的提升,在 p95 和 p99 延迟上有超过3倍的提升。此外,与之前的自回归解码相比,后者提供了更高的效率稳定性。这种显著的推理时间加速,将服务器端的 COGS 降低了三分之二。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图3:所有区域 Marian 和 ONNX 语法检查器延迟对比

离线和在线评估都验证了 Aggressive Decoding 能够在不降低模型预测质量的情况下显著减少 COGS。基于此,研究员们将 Aggressive Decoding 也应用到了更通用的 seq2seq 任务中[4]。Aggressive Decoding 的高效率和无损质量特性,或将使其成为 seq2seq 任务高效解码的标准范式,在降低 seq2seq 模型部署成本中起到重要作用。

ONNX Runtime加速语法检查器

ONNX Runtime 是微软开发的高性能引擎,它可在各种硬件平台上加速人工智能模型。许多基于机器学习的微软产品都利用 ONNX Runtime 来加速推理性能。为了进一步降低推理延迟,ORT 团队的研发人员们首先将 PyTorch 版的 Aggressive Decoding 语法检查器,通过 PyTorch-ONNX 导出器导出为 ONNX 格式,再使用 ONNX Runtime 进行推理。ONNX Runtime 支持 Transformer 的特定优化以及 INT8 量化,这不仅实现了 Transformer 在 CPU 上的性能加速,同时还可以缩减模型大小。该端到端解决方案使用了多项前沿技术,以实现高效地运行这个先进的语法检查器模型。

ONNX Runtime 是一个具有很好延展性的跨硬件模型加速引擎,可以支持不同的应用场景。为了最高效运行 Aggressive Decoding 这一创新解码算法,我们对 PyTorch 导出器和 ONNX Runtime 做了一系列提升,最终让这一先进的语法检查器模型以最高性能运行。

—— 宁琼,微软首席产品主管

PyTorch 提供了一个内置函数,可以轻松地将 PyTorch 模型导出为 ONNX 格式。为了支持语法检查模型的独特架构,研发人员们在导出器里实现了复杂嵌套控制流导出到 ONNX,并扩展了官方 ONNX 规范来支持序列数据类型和运算符,以表示更复杂的场景,例如自回归搜索算法。这样就不需要单独导出模型编码器和解码器组件,再使用序列生成逻辑将它们串联在一起。由于 PyTorch-ONNX 导出器和 ONNX Runtime 支持序列数据类型和运算符,所以原模型可以导出成单一的一个包括编码器、解码器和序列生成的 ONNX 模型,这既带来了高效的计算,又简化了推理逻辑。此外,PyTorch ONNX 导出器的 shape type inference 组件也得到了增强,从而可以得到符合更严格的 ONNX shape type 约束下的有效的 ONNX 模型。

在语法检查器模型中引入的 Aggressive Decoding 算法最初是在 Fairseq 中实现的。为了使其与 ONNX 兼容以便于导出,研发人员们在 HuggingFace 中重新实现了 Aggressive Decoding 算法。在深入实施时,研发人员们发现 ONNX 标准运算符集不直接支持某些组件(例如分叉检测器)。目前有两种方法可以将不支持的运算符导出到 ONNX 并在 ONNX Runtime 中运行:1. 利用 ONNX 已有的基本运算符组建一个具有等效语义的图;2. 在 ONNX Runtime 中实现一个更高效的自定义运算符。ONNX Runtime 自定义运算符功能允许用户实现自己的运算符,以便灵活地在 ONNX Runtime 中运行。用户可以权衡实现成本和推理性能来选择合适的方法。考虑到本模型组件的复杂性,标准 ONNX 运算符的组合可能会带来性能瓶颈。因此,研发人员们选择在 ONNX Runtime 中实现自定义运算符。

ONNX Runtime 支持 Transformer 的优化和量化,这在 CPU 和 GPU 上都能提升性能。此外,ONNX Runtime 针对语法检查器模型进一步增强了编码器 attention 以及解码器 reshape 图算融合。支持该模型的另一大挑战是多个模型子图,而 ONNX Runtime Transformer 优化器和量化工具对此也实现了子图融合。ONNX Runtime 量化压缩已被应用于整个模型,进一步改善了吞吐量和延迟。

GPT-3.5助力模型实现质的飞跃

为了进一步提高生产中模型的精度和召回率,研究员们使用了强大的 GPT-3.5 作为教师模型。具体而言,GPT-3.5 模型通过以下两种方式来帮助提高结果:

  • 训练数据增强:通过对 GPT-3.5 模型进行微调,使其为大量未标注的文本生成标签。所获得的高质量标注,可以用作增强训练数据来提高模型性能。
  • 训练数据清理:利用 GPT-3.5 强大的零样本和少样本学习能力来区分高质量和低质量的训练示例。然后,通过 GPT-3.5 模型重新对已识别的低质量示例生成标注,从而产生更干净、更高质量的训练集,直接增强模型性能。

EdgeFormer:用于客户端seq2seq建模的成本效益参数化

近年来,客户端设备的计算能力大大增加,使得利用深度神经网络来实现最终的零销货成本成为可能。然而,在这些设备上运行生成式语言模型仍然是一个很大的挑战,因为这些模型的内存效率必须受到严格的控制。在涉及生成式语言模型时,自然语言理解中用于神经网络的传统压缩方法往往不适用。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图4:使用深度神经网络来实现零销货成本(zero-COGS)

运行在客户端的语法模型应该具有很高的效率(例如延迟在100ms内),这个问题已经由 Aggressive Decoding 解决了。此外,客户端模型还必须具有高效的内存(例如占用的空间在50MB以内),这是强大的 Transformer 模型(通常超过5000万个参数)在客户端设备上运行的主要瓶颈。

为了应对这一挑战,微软亚洲研究院的研究员们引入了前沿的客户端 seq2seq 建模技术 EdgeFormer[6],用于构建性能优异的轻量级生成语言模型,让模型可以在用户的计算机上轻松运行。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图5:DNN 语法:服务器模型 VS 客户端模型

EdgeFormer 有两个原则,主要是为了参数化的成本效益:

  • 有利于编码器的参数化
  • 负载均衡参数化

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图6:有利于编码器的参数化

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图7:负载均衡参数化

遵循上述具有成本效益参数化的原则而设计的 EdgeFormer,使得每个参数都能发挥最大潜力,即使客户端设备存在严格的计算和内存限制,也能获得有竞争力的结果。

在 EdgeFormer 的基础上,研究员们进一步提出了 EdgeLM——EdgeFormer 的预训练版本,这是第一个在设备上公开可用的预训练 seq2seq 模型,可以让 seq2seq 任务的微调变得更容易,进而获得好的结果。EdgeLM 作为语法客户端模型的基础模型,实现了零销货成本,与服务器端模型相比,该模型以最小的质量损失实现了超过5倍的模型压缩。

微软亚洲研究院异构计算组致力于以全栈协同设计的思想,构建深度学习模型到实际设备部署之间的桥梁。以 Microsoft Editor 为例,我们与算法、产品和 AI 框架团队深度合作,通过系统和硬件感知的模型优化和压缩,以及针对不同硬件的推理系统和运算符优化等,使模型开销能够满足实际设备运行的要求,为未来将更多微软产品的 AI 服务部署到设备端铺平了道路。

—— 曹婷,微软亚洲研究院高级研究员

降低推理成本,赋能客户端部署

客户端设备的模型部署对硬件使用有严格的要求,如内存和磁盘使用量等,以避免干扰其他的应用程序。由于 ONNX Runtime 是一个轻量级的引擎并提供全面客户端推理解决方案(如 ONNX Runtime 量化和 ONNX Runtime 扩展),所以其在设备部署方面也具有明显的优势。此外,为了在保持服务质量的前提下满足交付要求,微软亚洲研究院引入了一系列优化技术,包括系统感知的模型优化、模型元数据简化、延迟参数加载以及定制量化策略。基于 EdgeFormer 建模,这些系统优化可以进一步将内存成本降低2.7倍,而不会降低模型性能,最终赋能模型在客户端设备的部署。

系统感知的模型优化。由于模型在推理系统中被表示为数据流图,因此该模型的主要内存成本来自于生成的许多子图。如图8所示,PyTorch 代码中的每个分支被映射为一个子图。所以,需要通过优化模型实现来减少分支指令的使用率。这其中尤为重要的是,因为波束搜索包含更多的分支指令,研究员们利用了贪婪搜索作为解码器搜索算法,从而将内存成本降低了38%。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图8:PyTorch 模型和 ONNX 模型图的映射

模型元数据简化。如图8所示,模型包含大量消耗内存的元数据,如节点名称和类型、输入和输出以及参数等。为了降低成本,研究员们需要简化元数据,只保留推理所需的基本信息,例如,节点名称从一个长字符串简化为一个索引。此外,研究员们也优化了 ONNX Runtime 模型图的实现,对所有子图只保留一个元数据副本,而不是在每次生成子图时复制所有可用的元数据。

延迟模型权重加载。当前的模型文件包含模型图和权重,并在模型初始化期间将它们一起加载到内存中。然而,这会增加内存使用量,如图9所示,这是因为在模型图解析和转换过程中会重复复制权重。为了避免这种情况,研究员们提出将模型图和权重分别保存成独立的文件,并将该方法在 ONNX Runtime 加以实现。通过该方法,在初始化期间,只有模型图被加载到内存中进行实际解析和转换,而权重仍然留在磁盘上,通过文件映射只把权重文件指针(pointer)保留在内存中,实际的权重到内存的加载将被推迟到模型推理之时。该技术可将峰值内存成本降低50%。

多项创新技术加持,实现零COGS的Microsoft Editor语法检查器

图9:对比现有的模型图和权重同时加载(虚线上),以及模型初始化期间通过文件映射实现的延迟权重加载(虚线下)

ONNX Runtime 量化和扩展。量化是众所周知的模型压缩技术,它在牺牲模型精度的同时,带来了性能加速和模型缩减。ONNX Runtime 量化提供了多种微调选择,使其能够应用定制的量化策略。研发人员们为 EdgeFormer 模型定制了最优量化策略,以减少量化对精度的影响,具体包括训练后、动态和 UINT8 量化,以及 per-channel 和既有所有运算符量化策略。Onnxruntime-extensions 提供了一组 ONNX Runtime 定制运算符,以支持视觉、文本和自然语言处理模型的常见预处理和后处理运算符。利用这一工具,研发人员们将模型的预处理和后处理,例如标记化(tokenization)、字符串操作等,都集成到一个独立的 ONNX 模型文件中,从而提高性能、简化部署、减少内存使用率并提供更好的可移植性。

这些创新成果只是微软亚洲研究院为降低生成式语言模型的销货成本而做出的长期努力中的第一个里程碑。这些方法并不局限于加速神经语法检查器,它可以很容易地应用在抽象摘要、翻译或搜索引擎等广泛的场景中,从而加速降低大语言模型的销货成本[5, 8]。在人工智能的未来发展中,这些创新对微软乃至对整个行业都将至关重要。

相关链接:

ONNX Runtime:https://onnxruntime.ai

EdgeFormer:https://www.microsoft.com/en-us/research/publication/edgeformer-a-parameter-efficient-transformer-for-on-device-seq2seq-generation/

EdgeLM:https://github.com/microsoft/unilm/tree/master/edgelm

ONNX Runtime 量化:https://onnxruntime.ai/docs/performance/model-optimizations/quantization.html

Onnxruntime-extensions:https://github.com/microsoft/onnxruntime-extensions

参考文献:

[1] Tao Ge, Furu Wei, Ming Zhou: Fluency Boost Learning and Inference for Neural Grammatical Error Correction. In ACL 2018.

[2] Tao Ge, Furu Wei, Ming Zhou: Reaching Human-level Performance in Automatic Grammatical Error Correction: An Empirical Study.

https://arxiv.org/abs/1807.01270

[3] Xin Sun, Tao Ge, Shuming Ma, Jingjing Li, Furu Wei, Houfeng Wang: A Unified Strategy for Multilingual Grammatical Error Correction with Pre-trained Cross-lingual Language Model. In IJCAI 2022.

[4] Xin Sun, Tao Ge, Furu Wei, Houfeng Wang: Instantaneous Grammatical Error Correction with Shallow Aggressive Decoding. In ACL 2021.

[5] Tao Ge, Heming Xia, Xin Sun, Si-Qing Chen, Furu Wei: Lossless Acceleration for Seq2seq Generation with Aggressive Decoding.

https://arxiv.org/pdf/2205.10350.pdf

[6] Tao Ge, Si-Qing Chen, Furu Wei: EdgeFormer: A Parameter-efficient Transformer for On-device Seq2seq Generation. In EMNLP 2022.

[7] Heidorn, George. “Intelligent Writing Assistance.” Handbook of Natural Language Processing. Robert Dale, Hermann L. Moisl, and H. L. Somers, editors. New York: Marcel Dekker, 2000: 181-207.

[8] Nan Yang, Tao Ge, Liang Wang, Binxing Jiao, Daxin Jiang, Linjun Yang, Rangan Majumder, Furu Wei: Inference with Reference: Lossless Acceleration of Large Language Models.

https://arxiv.org/abs/2304.04487文章来源地址https://www.toymoban.com/news/detail-478632.html

到了这里,关于多项创新技术加持,实现零COGS的Microsoft Editor语法检查器的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 为全面发展信息技术应用创新 实现数字化转型,金融信创势在必行

    近年来,网络安全和信息安全在数字化经济发展中至关重要。信息技术应用创新(即信创)是数据安全、网络安全的基础,加强信创建设,对于我国产业数字化以及信息安全都具有重大意义。金融行业作为关系国民经济命脉的重要行业,其安全问题是信创发展的重要课题。

    2024年02月12日
    浏览(47)
  • 由世纪互联运营的Microsoft Teams携创新功能正式发布,夯实“企业数字中枢”

    2023 年 4 月 18 日,北京—— 今日,微软宣布由世纪互联运营的Microsoft Teams推出一系列创新功能,围绕企业数字核心能力,赋能数字化协作空间、智能化协作体验、整合生产力工具和工作流、安全合规、构建团队文化等五大落地场景,这将进一步帮助中国市场客户构建以Teams为

    2024年02月05日
    浏览(46)
  • 页面查询多项数据组合的线程池设计 | 京东云技术团队

    我们应对并发场景时一般会采用下面方式去预估线程池的线程数量,比如QPS需求是1000,平均每个任务需要执行的时间是t秒,那么我们需要的线程数是t * 1000。 但是在一些情况下,这个t是不好估算的,即便是估算出来了,在实际的线程环境上也需要进行验证和微调。比如在本

    2024年02月07日
    浏览(50)
  • 用链表表示多项式,并实现多项式的加法运算

    输入格式: 输入在第一行给出第一个多项式POLYA的系数和指数,并以0,0 结束第一个多项式的输入;在第二行出第一个多项式POLYB的系数和指数,并以0,0 结束第一个多项式的输入。 输出格式: 对每一组输入,在一行中输出POLYA+POLYB和多项式的系数和指数。 输入样例: 输出样例: 本

    2024年02月07日
    浏览(71)
  • 面向未来的颠覆性技术创新

           本篇文章是博主在人工智能等领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对人工智能等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在 学习摘录和笔记专栏 :         学习摘录和

    2024年02月13日
    浏览(47)
  • 【C 数据结构】 用单链表存储一元多项式,并实现两个多项式相加运算。

    本次代码纯c语言,可以支持输入两个多项式的项式、系数、指数。 实验目的: 1 掌握单链表的基本工作原理; 2 实现链式存储下的两个多项式的相加。 实验步骤 1 定义链式存储的数据结构 2 完成多项式的初始化,即给多项式赋初值 3 完成多项式的输出 4 实现多项式的相加及结

    2024年02月06日
    浏览(49)
  • 虚拟现实:技术创新与市场发展

    虚拟现实(Virtual Reality, VR)是一种使用计算机生成的3D环境和交互方式来模拟现实世界的技术。它通过头戴式显示器、手掌感应器、身体运动感应器等设备,使用户在虚拟环境中进行交互。VR技术的发展历程可以分为以下几个阶段: 1.1 早期阶段(1960年代-1980年代):VR技术的研究和

    2024年02月19日
    浏览(55)
  • 安防行业深度报告:技术创新与格局重构

    前言: Hello大家好,我是小哥谈。 通过运用云计算、人工智能等新技术,安防行业正经历从传统安防向 AI 智慧安防转型升级的过程。这种升级将改变传统安防只能事后查证、人工决策的劣势,使得全程监控、智能决策成为可能。通过运用后端云计算与前端边缘计算相融合的

    2024年02月11日
    浏览(46)
  • 半导体工厂将应用哪些制造创新技术?

    半导体工厂是高科技产业的结晶,汇聚了世界上最新的技术。 在半导体的原料硅晶片上绘制设计图纸,不产生误差,准确切割并包装,然后用芯片生产出我们使用的电脑、智能手机、手表等各种电子产品。绝大多数半导体厂都采用一贯的工艺,将上述一系列过程一蹴而就。

    2024年02月05日
    浏览(48)
  • Docker入门指南: 创新的容器化技术

    Docker,一种创新的容器化技术,其主要目标是实现\\\"一次开发,到处运行\\\"。通过使用Docker,开发者可以在标准化的环境中进行工作,确保应用运行的一致性。 Docker是一个能够把开发的应用程序与它们所需要的环境进行打包,形成一个独立的、可移植的容器(Container)。然后,开

    2024年03月11日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包