【每日随笔】注意力陷阱 ( 技术无关、不要点进来看 | 注意力控制 | 注意力收割 )

这篇具有很好参考价值的文章主要介绍了【每日随笔】注意力陷阱 ( 技术无关、不要点进来看 | 注意力控制 | 注意力收割 )。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。





一、注意力



每个人拥有的最宝贵的财富是 注意力 ,

人一天能集中注意力 的时间 也就 3 ~ 5 个小时 , 如果不合理的使用这段时间的注意力 , 而是将注意力挥霍在了其它地方 ;





二、注意力陷阱



李笑来 老师 在通往财富自由之路 专栏中 总结了 3 种注意力消耗陷阱 :

  • 莫名其妙地凑热闹 :
    • 大街上围观 吵架 , 打架 等事件 , 见义勇为一定要多人围起来才能实现
    • 网上凑热闹 , 各种吃瓜 , 俄乌战争 , 吴亦凡踩缝纫机 , 恒大暴雷 , 各种在网上挥斥方遒 , 指点江山 ;
    • 不要把宝贵的注意力浪费在莫名其妙的热闹上 , 大量的时间 , 精力 , 好奇心 , 注意力被白白浪费掉 ;
  • 心急火燎的随大流 :
    • 盲目追逐趋势 , P2P , O2O , 内容创业 , ChatGPT , 浪费了宝贵的注意力 ;
    • 机会总是留给有准备的人 , 趋势并不是突然出现的 , 从事这个行业的人 , 早就在刚出现苗头的时候洞察到了该趋势 , 并且已经投入了实际行动 ; 等到趋势形成 , 人尽皆知 , 内行人已经行动了半年以上了 , 再随大流机会也不多了 ;
    • 不要看到别人的机会 , 而浪费自己的时间 , 精力 , 注意力 随大流 , 只要入坑 , 必定一事无成 ;
  • 操碎了别人的心肝 :
    • 别人创业 , 你为他总结 成功 / 失败 经验 ;
    • 自己泥菩萨过河 , 却操碎别人的心肝 ;




三、最宝贵的财富



一个人最宝贵的三种财富 :

  • 钱 : 钱可以再生 , 花了还能赚 ;
  • 时间 : 时间不属于你 , 只能让时间为你所用 , 人无法控制时间 ;
  • 注意力 : 注意力可以自己控制 ;




四、注意力控制



控制注意力 , 从开源节流角度进行 :

  • 开源 : 尽量增加自己 注意力 高度集中的时间 ;
  • 节流 : 减少注意力浪费 ;

提高注意力集中的时间 , 尽可能将消耗注意力的行为委托给他人 , 将节省出来的注意力投入到 自我提升 中 ;





五、注意力控制实际方法



程序员 控制注意力 方法 :

  • 住在公司楼下 : 不要浪费时间在上下班通勤上 ; 上下班通勤 不仅浪费时间 , 而且浪费心力 , 卡点等公交地铁 , 太浪费精力 ;
  • 上班时间摸鱼 : 工作间隙 , 减少工作间隙摸鱼时间 , 集中注意力自我提升 ;
  • 家务委托 : 家里的清洁 , 整理工作 , 委托给家政和收纳师 , 不要自己浪费注意力在这方便 , 花钱就可以办的事 , 既可以减少家庭矛盾 , 又能给自己节省很多时间 ;

不要养宠物 , 不要养宠物 , 不要养宠物 , 我刚把家养的柯基送掉 , 会大量浪费自己的注意力 ;





六、注意力收割



收割海量廉价注意力 , 集中起来可以卖很高的价钱 ;

比如 : 抖音 , 快手 , 疯狂收割你的注意力 , 动辄一两个小时就没了 , 它们拿到这部分注意力 , 可以当做高价流量 , 卖给广告商 ;

流量变现 , 就是这种商业模式 ;

你的注意力对你来说是宝贵的 , 对别人来说也很宝贵 ;

如果你不珍惜 注意力 , 在无关的事情上浪费注意力 , 就会被别人无情收割 , 然后集中起来卖掉 ;

你在看 抖音 , 短视频 , B 站 的时候 , 每多看 1 分钟 , 就会流失一份财富 ;

肆意挥霍浪费注意力 , 注定会被收割 , 终生没有有价值的产出 , 注定贫穷一生 ;

珍惜注意力 , 集中注意力作出更大的产出 , 成为更有能力的人 , 承担更大的社会责任 , 得到的回报就会更高 ;文章来源地址https://www.toymoban.com/news/detail-409625.html

到了这里,关于【每日随笔】注意力陷阱 ( 技术无关、不要点进来看 | 注意力控制 | 注意力收割 )的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 注意力机制(四):多头注意力

    注意力机制(四):多头注意力

    专栏:神经网络复现目录 注意力机制(Attention Mechanism)是一种人工智能技术,它可以让神经网络在处理序列数据时,专注于关键信息的部分,同时忽略不重要的部分。在自然语言处理、计算机视觉、语音识别等领域,注意力机制已经得到了广泛的应用。 注意力机制的主要思

    2024年02月06日
    浏览(8)
  • 【动手深度学习-笔记】注意力机制(四)自注意力、交叉注意力和位置编码

    【动手深度学习-笔记】注意力机制(四)自注意力、交叉注意力和位置编码

    紧接上回:【动手深度学习-笔记】注意力机制(三)多头注意力 在注意力机制下,我们将词元序列输入注意力汇聚中,以便同一组词元同时充当查询、键和值。 具体来说,每个查询都会关注所有的键-值对并生成一个注意力输出。 像这样的,查询、键和值来自同一组输入的

    2024年01月16日
    浏览(6)
  • 注意力机制(一):注意力提示、注意力汇聚、Nadaraya-Watson 核回归

    注意力机制(一):注意力提示、注意力汇聚、Nadaraya-Watson 核回归

    专栏:神经网络复现目录 注意力机制(Attention Mechanism)是一种人工智能技术,它可以让神经网络在处理序列数据时,专注于关键信息的部分,同时忽略不重要的部分。在自然语言处理、计算机视觉、语音识别等领域,注意力机制已经得到了广泛的应用。 注意力机制的主要思

    2024年02月09日
    浏览(8)
  • 自注意力机制与注意力机制

    自注意力机制与注意力机制

    基本内容理解的话推荐看一下这篇博客Transformer:注意力机制(attention)和自注意力机制(self-attention)的学习总结,这个博主讲的很细致,比较容易理解。 这里借用一下上述博客的总结: 注意力可以分为两种方式分别是 自主提示 和 非自主提示 。其中非自主提示是键,自主

    2023年04月08日
    浏览(13)
  • 注意力机制详解系列(三):空间注意力机制

    注意力机制详解系列(三):空间注意力机制

    👨‍💻 作者简介: 大数据专业硕士在读,CSDN人工智能领域博客专家,阿里云专家博主,专注大数据与人工智能知识分享。 🎉 专栏推荐: 目前在写CV方向专栏,更新不限于目标检测、OCR、图像分类、图像分割等方向,目前活动仅19.9,虽然付费但会长期更新,感兴趣的小伙

    2024年02月02日
    浏览(14)
  • 注意力机制详解系列(一):注意力机制概述

    注意力机制详解系列(一):注意力机制概述

    👨‍💻 作者简介: 大数据专业硕士在读,CSDN人工智能领域博客专家,阿里云专家博主,专注大数据与人工智能知识分享。 公众号: GoAI的学习小屋,免费分享书籍、简历、导图等资料,更有交流群分享AI和大数据,加群方式公众号回复“加群”或➡️点击链接。 🎉 专栏推

    2024年01月25日
    浏览(5)
  • 什么是注意力机制?注意力机制的计算规则

    什么是注意力机制?注意力机制的计算规则

    我们观察事物时,之所以能够快速判断一种事物(当然允许判断是错误的),是因为我们大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断,而并非是从头到尾的观察一遍事物后,才能有判断结果,正是基于这样的理论,就产生了注意力机制。 它需要三个指定的

    2024年02月14日
    浏览(6)
  • 通道信息,空间信息,通道注意力以及空间注意力

    通道信息和空间信息是图像中两种不同的信息类型。 通道信息是指图像中每个像素点的不同颜色通道(例如RGB图像中的红、绿、蓝通道)之间的信息差异。通道信息通常表示图像的全局特征,例如图像的颜色、明暗等。 空间信息则是指图像中每个像素点的位置和周围像素点

    2024年02月13日
    浏览(7)
  • 如何理解《注意力机制真的懂得“集中注意力”吗?》

    在文章《从熵不变性看Attention的Scale操作》中,我们就从“集中注意力”的角度考察过Attention机制,当时我们以信息熵作为“集中程度”的度量,熵越低,表明Attention越有可能集中在某个token上。 但是,对于一般的Attention机制来说,Attention矩阵可能是非归一化的,比如《FLAS

    2024年02月05日
    浏览(8)
  • 注意力机制-CA注意力-Coordinate attention

    注意力机制-CA注意力-Coordinate attention

    CA(Coordinate attention for efficient mobile network design)发表在CVPR2021,帮助轻量级网络涨点、即插即用。 CA注意力机制的优势: 1、不仅考虑了通道信息,还考虑了方向相关的位置信息。 2、足够的灵活和轻量,能够简单的插入到轻量级网络的核心模块中。 提出不足 1、SE注意力中只

    2024年02月02日
    浏览(8)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包