【赋权算法】Python实现熵权法

这篇具有很好参考价值的文章主要介绍了【赋权算法】Python实现熵权法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在开始之前,我们先说一下信息熵的概念。

当一件事情发生,如果是意料之中,那么这个事情就并不能拿来当做茶余饭后的谈资,我们可以说这个事情并没有什么信息和价值。而当一件不可能发生的事情发生的时候,我们可能就会觉得震撼三观,这件事情太Crazy了,带来的信息量也就很多。

哼哼,通过上文我们可以知道,一个事情越稳定,信息量就越少,那么如何去衡量呢?我们可以用概率的倒数(也就是负相关)来衡量。
I = − l o g ( p ( x ) ) I=-log(p(x)) I=log(p(x))
I I I也就是自信息,一件事情越确定,自信息也就越小。

而信息熵就是自信息的期望,代表这一件事情的混乱程度。信息熵越大,混乱程度越大,说明这件事情越疯狂。
H = − l o g ( p ( x ) ) p ( x ) H=-log(p(x))p(x) H=log(p(x))p(x)


再说熵权法(Entropy Weight Method),熵权法是客观赋权的一种方式,对应的主观赋权有专家打分法,相似的还有层次分析法。熵权法是利用信息稳定程度而提出的方法,一般来说,某列属性越稳定,它的信息就越可信,那么在实际的权重也应当越高。

不说人话,那就是:

一般来说,若某个指标的信息熵越小,表明指标值得变异程度越大,提供的信息量越多,在综合评价中所能起到的作用也越大,其权重也就越大。相反,某个指标的信息熵越大,表明指标值得变异程度越小,提供的信息量也越少,在综合评价中所起到的作用也越小,其权重也就越小。

你会发现在这段话中,自信息和提供信息实际上是成反比的。

不管他,只需要知道原本越稳定的数据,对异常越敏感,也越可信。

在实际计算中,遵循以下步骤:

step1 归一化

正向指标
Y i j = X i j − m i n ( X i ) m a x ( X i ) − m i n ( X i ) Y_{ij}=\frac{X_{ij}-min(X_i)}{max(X_i)-min(X_i)} Yij=max(Xi)min(Xi)Xijmin(Xi)
负向指标
Y i j = m a x ( X i ) − X i j m a x ( X i ) − m i n ( X i ) Y_{ij}=\frac{max(X_i)-X_{ij}}{max(X_i)-min(X_i)} Yij=max(Xi)min(Xi)max(Xi)Xij
step2 求频率替换概率
p i j = Y i j ∑ Y i j p_{ij}=\frac{Y_{ij}}{\sum Y_{ij}} pij=YijYij
step3 计算归一化信息熵
E n t r o p y = − 1 l n ( n ) ∑ p i j l n ( p i j ) Entropy=-\frac{1}{ln(n)}\sum p_{ij}ln(p_{ij}) Entropy=ln(n)1pijln(pij)
以什么为底的不重要啦

step4 计算权重
W j = 1 − E j k − ∑ E j W_j=\frac{1-E_j}{k-\sum E_j} Wj=kEj1Ej


以下是实现代码:

def EWM(data):
    t=(data-data.min(axis=0))/(data.max(axis=0)-data.min(axis=0))
    t=t/t.sum(axis=0)
    t[t<0.0001]=0.0001
    entropy=-1/np.log(t.shape[0])*np.sum(t*np.log(t))
    return [(1-i)/(len(entropy)-sum(entropy)) for i in entropy]

当然,这样的结果只是个权重,我们还需要对数据做乘法:

np.matmul(data.values,np.array(EWM(data)).T)

【赋权算法】Python实现熵权法,Python,算法与数据结构,算法,python

对这样一组数据,A十分稳定,B是正态分布,C是二分布,得到的结果是:

信息熵:

【赋权算法】Python实现熵权法,Python,算法与数据结构,算法,python

权重:

【赋权算法】Python实现熵权法,Python,算法与数据结构,算法,python


确实符合越稳定权重越大。

熵权法的优点

熵值法是根据各项指标指标值的变异程度来确定指标权数的,这是一种客观赋权法,避免了人为因素带来的偏差。

相对那些主观赋值法,精度较高客观性更强,能够更好的解释所得到的结果。

熵权法的缺点

忽略了指标本身重要程度,有时确定的指标权数会与预期的结果相差甚远,同时熵值法不能减少评价指标的维数,也就是熵权法符合数学规律具有严格的数学意义,但往往会忽视决策者主观的意图;

如果指标值的变动很小或者很突然地变大变小,熵权法用起来有局限文章来源地址https://www.toymoban.com/news/detail-688571.html

到了这里,关于【赋权算法】Python实现熵权法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • topsis算法模型和熵权法使用原理详解

    topsis模型原理: 1.topsis模型介绍 TOPSIS法(Technique for Order Preference by Similarity to Ideal Solution) 可翻译为逼近理想解排序法,国内常简称为优劣解距离法 TOPSIS 法是一种常用的综合评价方法,其能充分利用原始数据的信息, 其结果能精确地反映各评价方案之间的差距。 2.适用范围

    2024年02月04日
    浏览(40)
  • Python综合评价模型(八)熵权法

    熵权法是根据评价指标的变异程度(差异系数)来分配权重,评价指标变异程度越大,所赋权重就越大,并以此对评价对象进行综合评价的方法 第一步 导入第三方库和案例数据 第二步 标准化数据(min-max标准化) 使用min-max标准化方法标准化数据后,各评价指标的最大值为

    2024年02月15日
    浏览(45)
  • 数学建模之熵权法(EWM)matlab实例实现

    本文参考http://blog.sina.com.cn/s/blog_710e9b550101aqnv.html 熵权法是一种客观赋值的方法,即它通过数据所包含的信息量来确定权重,形象的说如果每个人考试都能考100分,那么这个指标对于这些人的评价是毫无意义的,因为没有任何区分度,熵权法就是通过区分度来确定对于特征的

    2023年04月08日
    浏览(40)
  • 12.9建模复盘——EXCEL批量处理数据、查找数据、熵权法、可视化

    以下是一些可以查询英国国家数据的网站: 1. 英国政府网站(www.gov.uk):提供各个政府部门的数据和统计信息,包括经济、人口、教育、健康、环境等领域。 2. 英国国家统计局(www.ons.gov.uk):英国的官方统计机构,提供广泛的统计数据和报告,涵盖经济、劳动力、人口、

    2024年02月05日
    浏览(45)
  • 权重分析——熵权法

    权重分析是通过熵权法对问卷调查的指标的重要性进行权重输出,根据信息熵的定义,对于某项指标,可以用熵值来判断某个指标的离散程度,其信息熵值越小,指标的离散程度越大, 该指标对综合评价的影响(即权重)就越大,如果某项指标的值全部相等,则该指标在综合

    2024年02月16日
    浏览(43)
  • 熵权法原理及应用

    熵权法原理及应用 熵 :起源于物理学,表示物质微观热运动时的混乱程度,在信息论中是衡量系统无序程度度量值。 熵权法 :根据信息熵的定义,对于某项指标,可以用熵值来判断某个指标的离散程度,其信息熵值越小,指标的 离散程度越大 , 该指标对综合评价的 影响

    2024年02月16日
    浏览(46)
  • 数学建模-熵权法

    熵权法:根据数据本身建立评价体系。 什么时候用? 数据全面,缺少文献或主观依据的题目,文献很难帮助我们确定影响水质的哪一个因素最重要,很难告诉我们指标的重要程度如何衡量。追求公平公正。 缺点:难以将数据之外的因素考虑进去 对比(层次分析法、TOPSIS法)

    2024年02月09日
    浏览(44)
  • 数学建模:熵权法

    🔆 文章首发于我的个人博客:欢迎大佬们来逛逛 构建原始矩阵 D a t a Data D a t a 形状为 m ∗ n m *n m ∗ n ,其中 m m m 为评价对象, n n n 为评价指标。 对 D a t a Data D a t a 矩阵的指标进行 正向化处理 ,得到矩阵 X X X . 计算每一个指标在每一个对象下的所占该指标的比重,然后

    2024年02月10日
    浏览(44)
  • 熵权法计算权重

    基于信息论的熵值法是根据各指标所含信息有序程度的差异性来确定指标权重的客观赋权方法,仅依赖于数据本身的离散程度。 熵用于度量不确定性,指标的离散程度越大(不确定性越大)则熵值越大,表明指标值提供的信息量越多,则该指标的权重也应越大。 熵权法多用

    2024年02月04日
    浏览(47)
  • MCM备赛笔记——熵权法

    Key Concept 熵权法是一种基于信息熵概念的权重确定方法,用于多指标决策分析中。信息熵是度量信息量的不确定性或混乱程度的指标,在熵权法中,它用来反映某个指标在评价过程中的分散程度,进而确定该指标的权重。指标的分散程度越高,信息熵越小,该指标的权重越大

    2024年01月21日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包