Linux文本分析命令awk的妙用

系统 Linux
awk是一个强大的文本分析工具,简单来说awk就是把文件逐行读入,(空格,制表符)为默认分隔符将每行切片,切开的部分再进行各种分析处理。

[[260119]]

 0、基本用法

awk是一个强大的文本分析工具,简单来说awk就是把文件逐行读入,(空格,制表符)为默认分隔符将每行切片,切开的部分再进行各种分析处理

awk命令格式如下 

  1. awk [-F field-separator] 'commands' input-file(s) 

[-F 分隔符]是可选的,因为awk使用空格,制表符作为缺省的字段分隔符,因此如果要浏览字段间有空格,制表符的文本,不必指定这个选项,但如果要浏览诸如/etc/passwd文件,此文件各字段以冒号作为分隔符,则必须指明-F选项 

  1. echo "this is a test" | awk '{ print $0 }'  
  2. ## 输出为  
  3. this is a test 

shell读取用户输入的字符串发现|,代表有管道。|左右被理解为简单命令,即前一个(左边)简单命令的标准输出指向后一个(右边)标准命令的标准输入

awk会根据分隔符将行分成若干个字段,$0为整行,$1为***个字段,$2 为第2个地段,依此类推…

为打印一个字段或所有字段,使用print命令。这是一个awk动作 

  1. echo "this is a test" | awk '{ print $1 }'  
  2. ## 输出为  
  3. this  
  4. echo "this is a test" | awk '{ print $1, $2 }'  
  5. ## 输出为  
  6. this is 

/etc/passwd的文件内容如下 

  1. root:x:0:0:root:/root:/bin/bash  
  2. bin:x:1:1:bin:/bin:/sbin/nologin  
  3. daemon:x:2:2:daemon:/sbin:/sbin/nologin  
  4. adm:x:3:4:adm:/var/adm:/sbin/nologin  
  5. lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin 

举几个简单的小需求

1、只显示/etc/passwd的账户 

  1. awk -F : '{ print $1 }' /etc/passwd  
  2. ## 输出为  
  3. root  
  4. bin  
  5. daemon  
  6. adm  
  7. lp 

2、显示/etc/passwd的第1列和第7列,用逗号分隔显示,所有行开始前添加列名start1,start7,***一行添加,end1,end7 

  1. awk -F ':' 'BEGIN {print "start1,start7"} {print $1 "," $7} END {print "end1,end7"}' /etc/passwd  
  2. ## 输出为  
  3. start1,start7  
  4. root,/bin/bash  
  5. bin,/sbin/nologin  
  6. daemon,/sbin/nologin  
  7. adm,/sbin/nologin  
  8. lp,/sbin/nologin  
  9. end1,end7 

BEGIN语句在所有文本处理动作执行之前被执行,END在所有文本处理动作执行之后被执行

3、统计/etc/passwd文件中,每行的行号,每行的列数,对应的完整行内容 

  1. awk -F : '{ print NR "  " NF "  " $0 }' /etc/passwd  
  2. ## 输出为  
  3. 1    7   root:x:0:0:root:/root:/bin/bash  
  4. 2    7   bin:x:1:1:bin:/bin:/sbin/nologin  
  5. 3    7   daemon:x:2:2:daemon:/sbin:/sbin/nologin  
  6. 4    7   adm:x:3:4:adm:/var/adm:/sbin/nologin  
  7. 5    7   lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin  

1、支持内置变量

上面示例中NR,和NF其实就是awk的内置变量,一些内置变量如下

变量名 解释
FILENAME awk浏览的文件名
FS 设置输入字段分隔符,等价于命令行-F选项
NF 浏览记录的字段个数
NR 已读的记录数

2、支持函数

输出字符串的长度 

  1. awk 'BEGIN { print length("this is a text") }'  
  2. ## 输出为  
  3. 14 

将/etc/passwd的用户名变成大写输出 

  1. awk -F ':' '{ print toupper($1) }' /etc/passwd  
  2. ## 输出为  
  3. ROOT  
  4. BIN  
  5. DAEMON  
  6. ADM  
  7. LP 

常用函数如下

函数名 作用
toupper(s) 返回s的大写
tolower(s) 返回s的小写
length(s) 返回s长度
substr(s,p) 返回字符串s中从p开始的后缀部分

3、支持条件操作,正则表达式匹配

显示/etc/passwd中有daemon的行 

  1. awk -F ':' '$0 ~ /daemon/' /etc/passwd  
  2. ## 输出为  
  3. daemon:x:2:2:daemon:/sbin:/sbin/nologin 

awk条件操作符

操作符 描述
< 小于
<= 小于等于
== 等于
!= 不等于
~ 匹配正则表达式
!~ 不匹配正则表达式

4、支持流程控制语句,类C语言

if while do/while for break continue

输出***个字段的***个字符大于d的行 

  1. awk -F ':' '{ if ($1 > "d") { print $1 } else { print "-" } }' /etc/passwd  
  2. ## 输出为  
  3. root  
  4.  
  5. daemon  
  6.  
  7. lp 

可以把流程控制语句放到一个脚本中,然后调用脚本执行,如test.sh的内容如下 

  1. {   
  2.     if ($1 > "d") {  
  3.         print $1   
  4.     } else {  
  5.         print "-"   
  6.     }   

用如下方式执行,效果一样 

  1. awk -F ':' -f test.sh /etc/passwd  
  2. ## 输出为  
  3. root  
  4.  
  5. daemon  
  6.  
  7. lp  

5、应用场景

小编用awk进行文本分析比较少,主要用来写脚本

如一个weibo-interface-1.0.jar应用,启动脚本如下

start.sh 

  1. nohup java -jar weibo-interface-1.0.jar >out 2>&1 & 

关闭脚本如下,kill.sh 

  1. kill -9 `jps -l | grep 'weibo-interface-1.0.jar' | awk '{print $1}'` 

jps -l的输出如下 

  1. 70208 com.st.kmp.main.KmpService  
  2. 31036 com.st.cis.main.BaiduAnalysisService  
  3. 66813 weibo-interface-1.0.jar 

还有就是关闭hadoop集群的所有DataNode节点(不知道hadoop的可以认为DataNode是一个集群应用),假如一个个机器jps,查看pid,kill。很麻烦,直接写了一个脚本,依次ssh到各个节点,然后执行如下命令即可 

  1. kill `jps | grep 'DataNode' | awk '{print $1}'` 

jps的输出为 

  1. 508 DataNode  
  2. 31481 JournalNode  
  3. 31973 NodeManager  

 

责任编辑:庞桂玉 来源: Linux学习
相关推荐

2016-12-23 10:56:34

linuxshellawk

2019-11-06 16:40:31

awkLinux文本分析工具

2021-03-06 07:00:00

awk文本分析工具Linux

2020-07-07 10:50:19

Python丄则表达文本

2017-04-27 08:54:54

Python文本分析网络

2010-01-05 16:55:44

JSON 文本

2023-06-28 11:49:56

Linux命令

2024-09-23 09:20:00

Python文本分析

2024-11-06 17:04:47

AWK编程

2022-10-09 08:00:00

机器学习文本分类算法

2023-11-30 12:03:06

linuxAwk

2023-12-10 21:35:45

Linux服务器日志分析

2023-11-28 15:18:24

Python

2023-10-20 16:25:30

Python

2010-09-06 14:14:32

ppp-on

2010-08-03 16:17:17

NFS协议

2019-12-17 10:40:48

awkLinux编写脚本

2019-08-20 14:29:45

grepsedawk

2018-11-13 12:52:50

Linux内核栈回溯

2020-11-30 13:12:04

Linux文本命令
点赞
收藏

51CTO技术栈公众号