天天看點

Linux awd

awk也是流式編輯器,針對文檔中的行來操作,一行一行地執行。awk兼具sed的所有功能,而且更加強大。

實驗如下:

[root@localhost ~]# mkdir awk

[root@localhost ~]# cp /etc/passwd awk/test.txt

[root@localhost ~]# cd awk

[root@localhost awk]# ls

test.txt

[root@localhost awk]# awk -F ':' '{print $1}' test.txt   #列印第1個字段

root

bin

daemon

adm

lp

sync

shutdown

halt

mail

operator

games

ftp

nobody

dbus

polkitd

avahi

avahi-autoipd

postfix

sshd

systemd-network

本實驗是以test.txt 為例,-F選項的作用是指定分隔符 單引号裡面為分隔符 print的動作要用{}括起來,否則會報錯,print還可以列印自定義的内容,但是内容要用雙引号括起來。$1為第1個字段,$2為第二個字段 以此類推

[root@localhost awk]# awk -F ':' '{print $1,$2}' test.txt   # 表示列印第1,2個字段

root x

bin x

daemon x

adm x

lp x

sync x

[root@localhost awk]# awk -F ':' '{print $0}' test.txt   #$0 表示列印全部字段, 類似cat的指令

root:x:0:0:root:/root:/bin/bash

bin:x:1:1:bin:/bin:/sbin/nologin

daemon:x:2:2:daemon:/sbin:/sbin/nologin

adm:x:3:4:adm:/var/adm:/sbin/nologin

lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

[root@localhost awk]# head -n 2 test.txt |awk -F ':' '{print $1"@"$2"@"}'  #print列印自定義的内容 @

awd 比對功能

[root@localhost awk]# awk '/0*/' test.txt   #比對0個或是多個o的行   和grep相同

sync:x:5:0:sync:/sbin:/bin/sync

[root@localhost awk]# awk -F ':' '$1 ~ /oo/' test.txt  #比對第1段 oo的行

[root@localhost awk]# awk -F ':' '$1 ~ /o+/' test.txt  #比對第1段 帶有o的行

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

operator:x:11:0:operator:/root:/sbin/nologin

nobody:x:99:99:Nobody:/:/sbin/nologin

polkitd:x:999:998:User for polkitd:/:/sbin/nologin

avahi-autoipd:x:170:170:Avahi IPv4LL Stack:/var/lib/a

[root@localhost awk]# awk -F ':' '/root/ {print $1,$2} /user/ {print $1,$3,$4}' test.txt   #awk 支援比對包含root 和user的

operator x

[root@localhost awk]# awk -F ':' '/root|user/ {print $0}' test.txt  #全文列印包 含root和user的行

數學表達式

[root@localhost awk]# awk -F ':' '$3==0 {print $1}' test.txt  #列印第3字段為0的 第1個字段

[root@localhost awk]# awk -F ':' '$3>=10 {print $3}' test.txt  #列印第3個字段 大于等于10 的第三個字段

11

12

14

99

81

999

70

170

[root@localhost awk]# awk -F ':' '$7!="nologin" {print $0}' test.txt  #列印全文 第7段不是nologin的行

[root@localhost awk]# awk -F ':' '$3<$4' test.txt  #兩個字段比較

mail:x:8:12:mail:/var/spool/mail:/sbin/nologin

games:x:12:100:games:/usr/games:/sbin/nologin

ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin

[root@localhost awk]# awk -F ':' '$3>"5" && $3<"7"' test.txt # &&并且  第3個段大于5  并且 是小于7的行

[root@localhost awk]# awk -F ':' '$3>"1000" || $7=="bin/bash"' test.txt  #||表示或者  這裡表示第3個字段大于1000或是第7字段是bin/bash的行

[root@localhost awk]# awk -F ':' '{OFS="#"} {print $1,$2,$3}' test.txt #利用OFS 定義符号并列印  等同于[root@localhost awk]# awk -F ':' '{print $1"#"$2"#"$3"#"}' test.txt

root#x#0

bin#x#1

daemon#x#2

adm#x#3

lp#x#4

sync#x#5

shutdown#x#6

halt#x#7

[root@localhost awk]# awk -F ':' '{OFS=="#"} {if($3>10) {print $1,$2,$3}}' test.txt  # 标準寫法

operator x 11

games x 12

ftp x 14

nobody x 99

dbus x 81

polkitd x 999

avahi x 70

avahi-autoipd x 170

[root@localhost awk]# awk -F ':' '{print NR ":" $0}' test.txt   # 列印行号 類似grep -n   NR為行号

1:root:x:0:0:root:/root:/bin/bash

2:bin:x:1:1:bin:/bin:/sbin/nologin

3:daemon:x:2:2:daemon:/sbin:/sbin/nologin

4:adm:x:3:4:adm:/var/adm:/sbin/nologin

5:lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

6:sync:x:5:0:sync:/sbin:/bin/sync

7:shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

8:halt:x:7:0:halt:/sbin:/sbin/halt

[root@localhost awk]# awk -F ':' '{print NF ":"$0}' test.txt  #NF表示分段号,打 印全文分段号

7:root:x:0:0:root:/root:/bin/bash

7:bin:x:1:1:bin:/bin:/sbin/nologin

7:daemon:x:2:2:daemon:/sbin:/sbin/nologin

7:adm:x:3:4:adm:/var/adm:/sbin/nologin

7:lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

7:sync:x:5:0:sync:/sbin:/bin/sync

[root@localhost awk]# awk -F ':' 'NR<=10' test.txt   #作為判定條件 10行以下的限 定

halt:x:7:0:halt:/sbin:/sbin/halt

[root@localhost awk]# sed -n '1,10'p test.txt #列印前10行

[root@localhost awk]# head -n 3 test.txt |awk -F ':' '{OFS=":"} $1="root"' #awk 更改段值

root:x:1:1:bin:/bin:/sbin/nologin

root:x:2:2:daemon:/sbin:/sbin/nologin

[root@localhost awk]# awk -F ':' '{(tot=tot+$3)}; END {print tot}' test.txt #計 算某段總和

1847

本文轉自 yzllinux 51CTO部落格,原文連結:http://blog.51cto.com/12947851/2062277,如需轉載請自行聯系原作者

繼續閱讀