Logits——(待完善)

这篇具有很好参考价值的文章主要介绍了Logits——(待完善)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

What is a Logit?

A Logit function, also known as the log-odds function, is a function that represents probability values from 0 to 1, and negative infinity to infinity. The function is an inverse to the sigmoid function that limits values between 0 and 1 across the Y-axis, rather than the X-axis. Because the Logit function exists within the domain of 0 to 1, the function is most commonly used in understanding probabilities.

Logits——(待完善),机器与深度学习自学,深度学习,学习

How does a Logit function work?

The Logit function is represented as:

If X represents a probability, then X(1-X) is the odds(概率), and the Logit function is the logarithm of the odds. The function plots across the graph within the domain of 0 to 1, and producing real numbers ranging from negative infinity to infinity.

Logit Functions and Machine Learning

(1)The Logit function is used similarly to the sigmoid function in neural networks. (2)The sigmoid, or activation, function produces a probability, whereas the Logit function takes a probability and produces a real number between negative and positive infinity.(3)Like the sigmoid function, Logit functions are often placed as the last layer in a neural network as can simplify the data. (4)For example, a Logit function is often used in the final layer of a neural network used in classification tasks. (5)As the network determines probabilities for classification, the Logit function can transform those probabilities to real numbers.

原文 https://deepai.org/machine-learning-glossary-and-terms/logit

“logits”到底是个什么意思?

1. 什么是logits?
说到Logits,首先要弄明白什么是Odds?
在英文里,Odds的本意是指几率、可能性。它和我们常说的概率又有什么区别呢?
在统计学里,概率(Probability)描述的是某事件A出现的次数与所有事件出现的次数之比:
P(A) = 发生事件A的次数 / 所有事件的次数。 (公式1)
很显然,概率 P是一个介于0到1之间的实数; P=0,表示事件A一定不会发生,而P=1,则表示事件A一定会发生。
以掷骰子为例,由于骰子为6面,任意一面上点数概率都是相同。所以,事件A:掷出点数为1的概率为:P=1/6
对比而言,Odds指的是事件发生的概率与事件不发生的概率之比:
Odds(A)= 发生事件A的概率 / 不发生事件A的概率 (公式2)

还拿掷骰子的例子说事,掷出点数为1的Odds为:
Logits——(待完善),机器与深度学习自学,深度学习,学习
很明显,Odds和概率之间的关系为:
Logits——(待完善),机器与深度学习自学,深度学习,学习
进一步简化可知,
Odds(A)= 发生事件A次数 / 其他事件的次数(即不发生A的次数) (公式3)
换句话说,事件A的Odds 等于 事件A出现的次数 和 其它(非A)事件出现的次数 之比;
相比之下,事件A的概率 等于 事件A出现的次数 与 所有事件的次数 之比。
很容易推导得知:
概率P(A)和Odds(A)的值域是不同的。前者被锁定在[0,1]之间,而后者则是(?).
这说了半天,有何logit有什么关系呢?
请注意Logit一词的分解,对它(it)Log(取对数),这里“it”就是Odds。下面我们就可以给出Logit的定义了:
Logits——(待完善),机器与深度学习自学,深度学习,学习
公式4实际上就是所谓Logit变换。
原文:https://blog.csdn.net/nbxzkok/article/details/84838984
文章来源地址https://www.toymoban.com/news/detail-777762.html

到了这里,关于Logits——(待完善)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI机器学习:让计算机自学成才的神奇技术

    大家好,今天我们来聊一聊AI的机器学习。简单来说,机器学习就是让计算机系统通过数据来学习和改进性能,而不需要显式地编程。想象一下,你有一个非常聪明的机器人,你不需要告诉它每一步该怎么做,它只需要通过观察和经验积累,就能学会如何完成任务。这就是机

    2024年03月25日
    浏览(143)
  • 【PyTorch】进阶学习:探索BCEWithLogitsLoss的正确使用---二元分类问题中的logits与标签形状问题

    【PyTorch】进阶学习:探索BCEWithLogitsLoss的正确使用—二元分类问题中的logits与标签形状问题 🌈 个人主页:高斯小哥 🔥 高质量专栏:Matplotlib之旅:零基础精通数据可视化、Python基础【高质量合集】、PyTorch零基础入门教程👈 希望得到您的订阅和支持~ 💡 创作高质量博文(平

    2024年03月11日
    浏览(50)
  • 机器学习入门教学——人工智能、机器学习、深度学习

    1、人工智能 人工智能相当于人类的代理人,我们现在所接触到的人工智能基本上都是弱AI,主要作用是正确解释从外部获得的数据,并对这些数据加以学习和利用,以便灵活的实现特定目标和任务。 例如: 阿尔法狗、智能汽车 简单来说: 人工智能使机器像人类一样进行感

    2024年02月09日
    浏览(91)
  • 机器学习&&深度学习——机器翻译(序列生成策略)

    👨‍🎓作者简介:一位即将上大四,正专攻机器学习的保研er 🌌上期文章:机器学习深度学习——seq2seq实现机器翻译(详细实现与原理推导) 📚订阅专栏:机器学习深度学习 希望文章对你们有所帮助 上一节已经实现了机器翻译的模型训练和预测,逐个预测输出序列, 直

    2024年02月12日
    浏览(42)
  • 机器学习&&深度学习——Dropout

    👨‍🎓作者简介:一位即将上大四,正专攻机器学习的保研er 🌌上期文章:机器学习深度学习——权重衰减 📚订阅专栏:机器学习深度学习 希望文章对你们有所帮助 当面对更多特征而样本不足时,线性模型常会过拟合。而如果给出更多的样本而不是特征,通常线性模型不

    2024年02月15日
    浏览(39)
  • 机器学习 & 深度学习编程笔记

    如果不加噪音就成了正常的线性函数了,所以要加噪音。 torch.normal(0, 0.01, y.shape)是一个用于生成服从正态分布的张量的函数。其中,0代表均值,0.01代表标准差,y.shape表示生成的张量的形状与y相同。具体而言,该函数会生成一个张量,其元素值是从均值为0、标准差为0.01的正

    2024年02月16日
    浏览(102)
  • 机器学习&&深度学习——感知机

    👨‍🎓作者简介:一位即将上大四,正专攻机器学习的保研er 🌌上期文章:机器学习深度学习——softmax回归的简洁实现 📚订阅专栏:机器学习深度学习 希望文章对你们有所帮助 线性回归已经完结了, 接下来要开始讲解多层感知机,在这之前,先介绍感知机的相关内容,

    2024年02月15日
    浏览(39)
  • 认识机器学习与深度学习

    目录 1. 认识机器学习 1.1 什么是机器学习? 1.2 机器学习可以解决的问题 1.3 机器学习的基础知识 2. 认识深度学习 2.1 什么是深度学习? 2.2 深度学习能做什么? 2.3 深度学习的基础知识 2.4 深度学习的神经网络种类 3. 总结         机器学习(Machine Learning)是一种基于计算机算

    2024年02月02日
    浏览(44)
  • 01 机器学习与深度学习

    源自:《深度学习》(徐立芳/主编  莫宏伟/副主编) 每个训练数据集包含输入和正确输出。 在分类问题中,就是通过学习带有分类标签的样本,使用模型对未知的样本进行正确分类的过程。 常见算法有逻辑回归和反向传播神经网络。 训练数据仅包含输入,没有正确输出。

    2024年01月25日
    浏览(37)
  • 机器学习——深度学习

    y = f ( ∑ i = 1 n w i x i − b ) y=f(sumlimits_{i=1}^{n}w_ix_i-b) y = f ( i = 1 ∑ n ​ w i ​ x i ​ − b ) 其中, f f f 常常取阶跃函数或 Sigmoid 函数。 学习规则: Δ w i = η ( y − y ^ ) x i w i ← w i + Δ w i Delta w_i=eta(y-hat{y})x_i\\\\ w_i leftarrow w_i+Delta w_i Δ w i ​ = η ( y − y ^ ​ ) x i ​ w i ​ ←

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包