linux中好玩的数据流定向和管道命令一

这篇具有很好参考价值的文章主要介绍了linux中好玩的数据流定向和管道命令一。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

知识点复习:

什么是数据流定向,个人理解就是将 一些结果信息不打印在屏幕上,而是定位在某一个文件里面

ll /wdf > file  会覆盖file的原内容

ll /wdf >> 会追加到原文件后面

比如在自己的目录新建1.TXT, 2.txt

ll /home/wdf > list

cat list

然后增加3.txt

ll /home/wdf >>list

cat list  #此时会显示3个文件,如果把>>改成> ,那么就会覆盖原有内容,变成一个文件记录了

注意,错误的信息不回写入到定向的文件里面,有三个定义;

标准输入<,<<,标准输出1>,1>>,标准错误输出2>,2>>

其中<<'eof'表示输入eof就停止了,这个要注意下

例如:一般用户模式下

find  /home -name .bashrc >list_right 2>>list_error

linux中好玩的数据流定向和管道命令一,linux,服务器,windows

命令执行后,前两行信息会送到list_error,最后一行送到list_right里面

如果将错误的返回信息丢弃可以>/dev/null

重点来了,如果想写如一个文件呢?如何实现

>list_right 2>&1   或者 &>list_right  

linux中好玩的数据流定向和管道命令一,linux,服务器,windows

标准输入< 和<<

代替键盘输入创建新文件的流程

cat > catfile<~./,batshrc

<<代表的是结束输入的意思

cat >catfile<<'eof'

命令判断依据:

;多个命令 在一行执行可以用;分割,sync;sync;shutdown -h now

&&判断前一命令是否正确执行,如果执行 则执行后面命令

||前面命令非正确执行,执行后面命令

command1 && command2 ||command3

经典的判断 类似exp?a:b

管道命令:cut,grep,sort,wc,uniq,双重定向tee,字符串转换命令:tr,col,jion,paste,expand ,切割split

个人感觉这些命令在使用的时候在研究就可以,小白看完啥感觉也没有,用法还是不熟悉,可能实践的太少了

这些配合 | 使用

echo $PAHT | cut -d ":" -f 5

-d:表示分隔符

-f:表示第几段的意思

将path的值按:分割,并将第五列信息显示到屏幕上

grep这个比较数据,经常用来某个程序的,常用

ps -ef |grep weblogic

查看weblogic进程信息

配合使用

last | grep 'root' |cut -d " " -f 1

这个意思很明显,找到last内有root的信息,以空格分割,显示第一列

sort

排序,也是在管道后接sort ,参数很多,自己看吧

cat /etc/passwd |sort

将passwd的信息排序并输出到屏幕上

wc

常用显示行数,字数,字符数

cat /etc/man.config |wc

uniq去重,重复的记录只显示一行

tee双重定向,这个和>,>>,2>,2>>可以对比学习

tee顾名思义,就是将文件分别送到文件和屏幕 上

ls -l /home |tee ~/homefile |more #将ls的数据存一份到homefile里面,并在屏幕上输出

tr:删除或者替换

-d:删除  

cat /etc/passwd | tr -d ':'  #删除结果集中的:

替换    last |tr [a-z] [A-Z],#将结果集数据转为大写

col 可以将tab换成空格

cat -A  /etc/man.config  #显示所有特殊字符,空格,tab,回车等

cat -A  /etc/man.config |col =x #将tab换成对等的空格,用-x控制

join 操作两个文件

join -t ':' -1 4  /home/file1 -2 3 /home/fie2

将1,2文件用:分割,整合第一个文件的第四列,第二个文件的第三列,整合成一个文件

一般先找到两个文件分割后的相同列,然后在join,可以用来对比文件

paste比join简单,直接在一行后面追加默认空格分割

past /home/file /home/file2

file-xxxxx  file2-xxxxx

expand 将tab转空格  和col区别是,这个可以自定义字符,一个tab默认8个字符,可以自定义

grep ‘^MANPATH’ /etc/man.config | head -n 3|expand -t 6 |cat -A

配置文件找到内容MANPATH想关信息,取前三行,显示特殊字符,将其中的tab换成6空格后显示输出

split分割,多用来将大文件分割成小文件,方便读取

按照文件大小分割 -b

按照行数分割 -l

ls -al / |split -l 10 - lsroot #根目录列表信息,每10条记录创建一个文件,文件名前缀lsroot【aa,ab,ac】  其中 “-”经常代表标准的输入,这个暂时不太理解,等有时间多看看其他博主的说明吧。

文章只是本人笔记,非常简陋,仅供参考文章来源地址https://www.toymoban.com/news/detail-719785.html

到了这里,关于linux中好玩的数据流定向和管道命令一的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 银行储蓄系统的顶层数据流图及细化数据流图

    绘制出银行储蓄系统的顶层数据流图及细化数据流图; 银行储蓄系统存、取款流程如下: 1)业务员事先录入利率信息; 2)如果是存款,储户填写存款单,业务员将存款单键入系统,系统更新储户存款信息(存款人姓名、存款人账号、电话号码、身份证号码、存款金额、存

    2024年01月17日
    浏览(48)
  • Elasticsearch:将 ILM 管理的数据流迁移到数据流生命周期

    警告 :此功能处于技术预览阶段,可能会在未来版本中更改或删除。 Elastic 将努力解决任何问题,但技术预览版中的功能不受官方 GA 功能的支持 SLA 的约束。目前的最新版本为 8.12。 在本教程中,我们将了解如何将现有数据流(data stream)从索引生命周期管理 (ILM) 迁移到数据

    2024年04月29日
    浏览(46)
  • 数据流图(DFD)

    数据流图是用于表示系统逻辑模型的一种工具。从数据 传递和加工 的角度,以图形的方式描述数据在系统中流动和处理的过程 数据字典是指对数据的数据项、数据结构、数据流、数据存储、处理逻辑等进行定义和描述,其目的是 对数据流图中的各个元素做出详细的说明 ,

    2024年02月04日
    浏览(51)
  • postman 数据流请求

    备注: Postman version : Version 9.21.3 Windows 版本 1.修改headers 2.Body 部分 选择raw 格式数据 3.最后执行请求

    2024年02月11日
    浏览(63)
  • Flink数据流

    官网介绍 Apache Flink 是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。Flink 被设计为在所有常见的集群环境中运行,以内存中的速度和任何规模执行计算。 1.无限流有一个开始,但没有定义的结束。它们不会在生成数据时终止并提供数据。必须连续处

    2024年02月17日
    浏览(48)
  • Java文件读写数据流

    以下这几个类都是抽象类.并且都有对于文件操作的具体实现类.File+类名就是具体的实现类 1.1.1.InputStream 以二进制方式读.有两个主要方法. 1.read(); 该方法有三个版本 无参: read() 读取一个字节的数据,返回 -1 表示读取结束 一个参数: read(byte[] b) 最多读取 b.length 字节的数据到 b

    2024年02月16日
    浏览(44)
  • C# 数据流 FileStream

     

    2024年03月24日
    浏览(44)
  • 指令流和数据流

    指令流和数据流 Flynn于1972年提出计算平台分类法主要根据指令流和数据流来分类,分为四类: ①单指令流单数据流机器(S1SD) SISD机器是一种传统的串行计算机,它的硬件不支持任何形式的并行计算,所有的指令都是串行执行。并且在某个时钟周期内,CPU只能处理一个数据流

    2024年02月04日
    浏览(54)
  • nginx 转发数据流文件

    1.问题描述 后端服务,从数据库中查询日志,并生成表格文件返回静态文件。当数据量几兆时,返回正常,但是超过几十兆,几百兆,就会超过网关的连接超时时间30秒。 时序图  这里面主要花费时间的地方在: 1后台服务器,将数据格式化,写到本地的文件的过程 2后台服务

    2024年02月06日
    浏览(43)
  • 实时数据处理:数据流的安全与隐私

    实时数据处理在现代大数据环境中具有重要意义。随着互联网的普及和人们对数据的需求不断增加,实时数据处理技术已经成为了企业和组织的核心技术之一。然而,随着数据处理技术的不断发展,数据流的安全与隐私也成为了一个重要的问题。在这篇文章中,我们将深入探

    2024年02月20日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包