硬件性能评估指标-DMIPS、MFLOPS、MAC、TOPS

这篇具有很好参考价值的文章主要介绍了硬件性能评估指标-DMIPS、MFLOPS、MAC、TOPS。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. DMIPS(Dhrystone Million Instructions Per Second)

    • DMIPS用于衡量计算机系统的整体指令执行性能,通常关注整数操作。它基于Dhrystone基准测试来计算,该测试主要包含整数运算和控制流程操作。
    • DMIPS的计算方式是将Dhrystone测试的执行速度(每秒执行多少次Dhrystone测试)除以一百万,以获得每秒执行的百万指令数(因为DMIPS指的是每秒处理几百万指令-Million Instructions)。
    • DMIPS不考虑浮点数操作,因此它不能准确地反映计算机系统的浮点数性能

    一般芯片都有 DMIPS/MHz 信息,如下图:
    硬件性能评估指标-DMIPS、MFLOPS、MAC、TOPS,无人驾驶,硬件架构,性能优化,CPU,DSP
    比如 ARM Cortex-A72 架构为 4.7DMIPS/MHz,那么DMIPS为:

    • 双核A72架构,主频为2.0GHz的CPU(也有1.5GHz的,由厂家设置,因为功耗之类的原因?),DMIPS:2 * 2GHz * 4.7DMIPS/MHz = 18.8kDMIPS。

    \newline

    比如 ARM Cortex-A55 架构为 2.7DMIPS/MHz,那么DMIPS为:

    • 八核A55架构,主频为1.2GHz的CPU,DMIPS:8 * 1.2GHz * 2.7DMIPS/MHz = 25.92kDMIPS。
  2. FLOPS(Floating-Point Operations Per Second)

    • FLOPS用于衡量计算机系统的浮点数运算性能,主要关注浮点数操作,如加法、乘法和除法。

    • FLOPS主要用于评估计算机在科学计算、图形处理、模拟等需要大量浮点数运算的应用中的性能。

  3. MAC(Multiply-Accumulate) 或 MADDs(Multiply-Add)

    • MAC是一种常用于衡量计算机系统性能的浮点数运算指标,特别在数字信号处理(DSP)(因为信号处理计算一般都是乘加计算)和机器学习领域中经常使用。MAC操作包括乘法和累加运算,通常表示为C = A * B + C,其中A和B是输入数据,C是累加结果。
    • MAC操作通常在矩阵乘法、卷积等计算密集型应用中广泛使用。

    比如 P6 DSP 的 MAC 数为 256MAC/cycle(int8, 64路int8并行),16MAC/cycle(float, 8路float并行),则其在800MHz时,算力为:

    • 800MHz * 256MAC/cycle = 204.8GMAC/sec (int8)
    • 800MHz * 16MAC/cycle = 12.8GMAC/sec (float)
  4. TOPS(Tera Operations Per Second)

    • TOPS 是每秒执行的操作数。

    TOPS和上面的MAC/sec基本是等价的东西,但由于上面的操作C = A * B + C由两个操作,且这里的单位为兆,所以上面公式转换为以TOPS为单位:文章来源地址https://www.toymoban.com/news/detail-689170.html

    • 204.8GMAC/sec = 204.8 * 2 * e-3 = 0.4096TOPS (int8)

到了这里,关于硬件性能评估指标-DMIPS、MFLOPS、MAC、TOPS的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习或深度学习中超参数性能评估指标 AUROC 和 AUPRC 的区别和选择

    AUROC(Area Under the Receiver Operating Characteristic Curve)和 AUPRC(Area Under the Precision-Recall Curve)都是用于评估 二分类 模型性能的指标,但它们关注的方面略有不同,适用于不同类型的问题。以下是它们之间的主要区别和如何选择使用它们的一些建议: 1. **AUROC(Area Under the Receiver

    2024年02月07日
    浏览(34)
  • 聚类模型评估指标

    聚类模型评估指标-轮廓系数 计算样本i到同簇其它样本到平均距离ai,ai越小,说明样本i越应该被聚类到该簇(将ai称为样本i到簇内不相似度); 计算样本i到其它某簇Cj的所有样本的平均距离bij,称为样本i与簇Cj的不相似度。定义为样本i的簇间不相似度:bi=min(bi1,bi2,…,bik2

    2024年01月18日
    浏览(35)
  • 目标检测的评估指标

    在训练阶段是不需要nms处理的,只有在验证或者是测试阶段才需要将预测结果进行非极大值抑制处理, Precision(精确率/查准率):是指在所有被预测为正的样本中,确实是正样本的占比。当Precision越大时,FP越小,此时将其他类别预测为本类别的个数也就越少,可以理解为预测

    2024年02月13日
    浏览(34)
  • 目标检测评估指标

    评估指标是评价目标检测算法方法好坏的重要依据,目标检测有:IoU(交并比)、Precision(精确度)、Recall(召回率)、AP(平均正确率)、mAP(平均类别AP)等多种评价指标。 1.IoU IoU:用来评价目标检测算法的对象定位精度,IoU是目标检测的预测框和标签框之间的重叠面积

    2024年02月06日
    浏览(35)
  • 19 | 分类模型评估指标

    2024年02月14日
    浏览(64)
  • 机器学习——常见模型评估指标

    目录 一.模型评估综述 1.1 什么是模型评估 1.2 评估类型 1.3 模型泛化能力 1.4 过拟合与欠拟合 1.4.1 过拟合 1.4.2欠拟合 二.常见的分类模型评估方式 2.1 混淆矩阵 2.2 准确率(Accuracy) 2.3 精确率(Precision) 2.4 召回率(Recall) 2.5 F1-score 2.6 ROC曲线及AUC值 2.7 PR曲线 三. PR曲线和ROC曲线的

    2024年04月10日
    浏览(41)
  • 最新目标跟踪评估指标汇总

    前段时间接触了一些目标跟踪的场景,本文主要汇总目标跟踪的常用评估指标,主要包括下面几类: 容易理解的概念:FP、FN、TP、id switch、ML、MT 更加综合的概念:MOTA、IDF1、MOTP、HOTA 主要的介绍集中在HOTA ,因为这个评估指标比较新,我能看到的讲解都比较少一点,所以展开

    2024年02月04日
    浏览(28)
  • Yolov5——评估指标

    IoU也称为交并比,评价边界框正确性的度量指标,表示detection box(检测框)与ground truth(真实标签)的交集和并集的比值。 计算公式 所有预测为正样本的结果中,预测正确的比率。 对于多目标检测任务,TP(true positive)表示预测出的正确的框,但问题是我们如何判断这个框

    2024年02月04日
    浏览(36)
  • 图像融合评估指标Python版

    这篇博客利用Python把大部分图像融合指标基于图像融合评估指标复现了,从而方便大家更好的使用Python进行指标计算,以及一些I/O 操作。除了几个 特征互信息 的指标没有成功复现之外,其他指标均可以通过这篇博客提到的Python程序计算得到,其中 SSIM 和 MS_SSIM 是基于PyTorc

    2023年04月08日
    浏览(33)
  • 敏捷指标: 评估计划的进展

    作者 | Will Hayes, Patrick Place, and Keith Korzec ——卡耐基梅隆大学 度量标准有助于实现一个运作良好的系统,评判现有流程的绩效。在项目交付契约功能时能够对其性能进行监督。本文探讨了在一个复杂的信息物理系统的迭代、增量交付过程中,政府项目评估的指标所起的作用。

    2024年02月07日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包