Shell命令

  • Shell命令已关闭评论
  • 177 次浏览
  • A+
所属分类:linux技术
摘要

1.shell命令的执行机制:fork+exec执行命令(任何的shell都会执行) 处理海量数据的命令:grep、cut、awk、sed

1.shell命令的执行机制:fork+exec执行命令(任何的shell都会执行)

2.shell中的用户输入处理

1  命令行参数:选项、参数 2  运行时输入 3  read命令: 4  1.基本读取、 5  2.超时处理-t选项、 6  3.隐藏方式读取-s选项) 7  4.从文件中读取

3.shell的反引号

1 /* 2 ``反引号在Linux shell命令行中有特殊的含义:反引号间的内容,会被shell先执行。其输出被放入主命令后,主命令再被执行。命令替换,即完成引用的命令的执行,将其结果替换出来,与变量替换差不多 3 */ 4 echo `date '--date=1 hour ago' +%Y-%m-%d-%H`   5 echo $(date '--date=1 hour ago' +%Y-%m-%d-%H)

4.setuid

 setuid位是让普通用户可以以root用户的角色运行只有root帐号才能运行的程序或命令。
 因此当程序设置了setid权限位时,普通用户会临时变成root权限,但实际用户任然是原来的mike。

5.linux文件

 /etc/mtab文件的作用:记载的是现在系统已经装载的文件系统,包括操作系统建立的虚拟文件等;
/etc/fstab是系统准备装载的find命令:以递归的方式进行搜索文件或文件夹

6.find命令

Shell命令Shell命令

1 1  --查找当前目录下所有文件中包含deposit_account的文件  2 2  -- f 普通文件 l 符号连接 d 目录 c 字符设备 b 块设备 s 套接字 p Fifo 3 3  find . -type f -print |xargs grep "deposit_account" 4 4  --查找根目录下名字为create.txt的文件 5 5  find / -name "create.txt" 6 6  --查找根目录下文件大小大于100M的文件 7 7  find / -size +100M 8 8  --使用find查找png和jpg的文件 -o 指定多个-name选项 9 9  find . -name '*.png' -o -name '*.jpg' -type f

find

7.for循环

Shell命令Shell命令

 1  1  /*for 变量名 in 取值列表({1..100}--1到100依次执行、{1..100..2} --间隔2个)  2  2  do  3  3     命令序列  4  4  done  5  5  --举例*/  6  6  sum=0  7  7  for ((i=1;i<100;i++))  8  8  do  9  9     sum=$($i+$sum) 10 10  done 11 11     echo "0-100的和为:" $sum

for循环

8.正则表达式

Shell命令Shell命令

 1  1  --行首定位符“^”:用来匹配行首的字符  2  2  --列出etc目录下以po开头的文件  3  3  str='ls /etc |grep "^po"'  4  4  echo "$str"  5  5 6  6  --行尾定位符“$”  7  7  str='ls /etc |grep "conf$"'  8  8  echo "$str"  9  910 10  --单个字符匹配“.”:圆点“.”用来匹配任意单个字符,包括空格,但是不包括换行符“n” 11 11  --列出所有的包含字符串“13”的文件名 12 12  str=`cat dian.txt | grep "13"` 13 13  echo "$str" 14 14  echo "-------------" 15 15  --列出包含字符串'13'以及另外一个字符的文件名 16 16  str=`cat dian.txt | grep "13."` 17 17  echo "$str" 18 1819 19  --限定符“*”:用来指定其前面的一个字符必须要重复出现多少次才能满足匹配 20 20  str=`ls /etc | grep "^sss*"` 21 21  echo "$str" 22 2223 23  --字符集匹配“[]” 24 24  /*"[a-f]”表示匹配字母表中a到f中的任意一个字母。 25 25  “[0-9]”表示匹配任意单个数字 26 26  "[^b-d]” 匹配除了从 b 到 d 范围内所有的字符  --取反 27 27  */ 28 28  --筛选所有以字符r开头,并且紧跟着1个字符c的文本行 29 29  str='ls /etc |grep "^rc"' 30 30  echo "$str" 31 31  echo "---------------------" 32 32  --筛选所有以字符r开头,紧跟着1个字符为c,下面1个字符为单个数字的文本行 33 33  str='ls /etc | grep "^rc[0-9]"' 34 34  echo "$str" 35 3536 3637 37  --字符集不匹配“[^]”:表示不匹配其中列出的任意字符 38 38  "[^b-d]” 匹配除了从 b 到 d 范围内所有的字符   39 3940 40  --反斜杠字符 转义  使这个字符表示原来字面上的意思 41 41  “$“表示了原来的字面意思”$”,而不是在正则表达式中表达的匹配行尾的意思. 42 4243 43  --转义(escape) “尖角号” <...> 44 44  用于表示单词的边界. 尖角号必须被转义,因为不这样做的话它们就表示单纯的字面意思而已."<the>" 匹配单词"the",但不匹配"them", “there”, “other”, 等等.

正则表达式

9.扩展正则表达式

Shell命令Shell命令

 1  1 --限定符“+” :匹配一个或多个前面的字符.和*相似,区别是它不匹配零个字符的情况.  2  2  --筛选以字符串“ss”开头,后面至少紧跟着1个字符“s”的文本行  3  3  str=`ls /etc | egrep "^sss+"`  4  4  echo "$str"  5  5  --输出  6  6  sssd  7  7 8  8  --限定符“?”:限定前面的字符最多只出现1次,即前面的字符可以重复0次或者1次。  9  9  str=`ls /etc | egrep "^sss?"` 10 10  echo "$str" 11 11  --输出 12 12  ssh 13 13  ssl 14 14  sssd 15 1516 16  --竖线“|” 和圆括号“()”: 17 17  --竖线“|” 表示多个正则表达式之间“或”的关系 18 18  --竖线“|” 表示多个正则表达式之间“或”的关系 19 19  #筛选含有字符串“ssh”、“ssl”或者以字符串“yum”开头的文本行 20 20  #grep -E主要是用来支持扩展正则表达式 21 21  #grep -E =egrep 22 22  str=`ls /etc | egrep "(ssh|ssl|^yum)"` 23 23  echo "$str" 24 2425 2526 26  --转义“大括号”{}指示前边正则表达式匹配的次数,要转义是因为不转义的话大括号只是表示他们字面上的意思 27 27[0-9]{5}” --精确匹配 5 个数字 (从 0 到 9 的数字)

扩展正则表达式

10.perl正则表达式

Shell命令Shell命令

1  --数字匹配d 符号“d”匹配从0到9中的任意一个数字字符,等价于表达式“[0-9]” 2  --筛选以字符串rc开头,紧跟着一个数字的文本行 -P可以让grep使用perl的正则表达式语法 3  str=`ls /etc | grep -P "^rcd"` 4  echo "$str" 5 6  --非数字匹配D  “D”等价于表达式“[^0-9]” 7  --空白字符匹配s :匹配任何空白字符,包括空格、制表符以及换页符=“[fnrtv]”。 8  --非空白字符匹配S:符号“S”匹配任何非空白字符,等价于表达式“[^fnrtv]”

perl正则表达式

处理海量数据的命令:grep、cut、awk、sed

grep、sed命令是对行进行提取

cut、awk命令是对列进行提取

11.grep命令

Shell命令Shell命令

 1  /*  2  grep [选项]...[内容]...  3  -v 对内容进行取反提取  4  -n 对提取的内容排列,显示行号  5  -w 精确匹配  6  -i 忽略大小写  7  ^  匹配行首  8  -E 正则匹配  9  */ 10  grep 'user' /etc/passwd  --匹配包含user的行 11  grep -n 'user' /etc/passwd --显示行号

grep

12.awk命令

Shell命令Shell命令

 1  /*  2  而awk比较倾向于将一行分成多个"“字段"然后再进行处理。awk信 息的读入也是逐行读取的,在使用awk命令的过程 中,可以使用逻辑操作符”&“表示"与”、"||表示"或"、"!“表示非”;还可以进行简单的数学运算,如H+、 -、*、/、%、^分别表示加、减、乘、除、取余和乘方。  3  awk 选项 '{操作}' 文件名  4  */  5  awk '{print}' zz.txt   --默认输出所有  6  awk -F: '{print $1}' zz.txt  --分隔符为:输出第一列  7  echo 'this is a test' | awk '{print $NF}'  --$NF表示最后一个字段  8  awk -F ':' '{ print toupper($1) }' demo.txt  --将输出的字符转成大写  9  --awk '条件 动作' 文件名  结合正则表达式 10  awk -F ':' '/usr/ {print $1}' demo.txt  --只输出包含usr的行 11  awk -F ':' 'NR % 2 == 1 {print $1}' demo.txt --输出奇数行 12  awk -F ':' '$1 == "root" {print $1}' demo.txt --输出第一个字段等于指定值的行

awk

13.route命令

Shell命令Shell命令

 1  /*  2  在网络中,route命令用来显示、添加、删除和修改网络的路由。  3  route [-f] [-p] [Command] [Destination] [mask Netmask] [Gateway] [metric Metric] [if Interface]  4  route -f:用于清除路由表  5  route -p:用于创建永久路由  6  route Command:主要有print(打印路由)、ADD(添加路由)、DELETE(删除路由)、CHANGE(修改路由)4个常用命令  7  route Destination:表示到达的目的IP地址  8  route MASK:表示子网掩码的关键字  9  route Netmask:表示具体的子网掩码,如果不进行设置,系统默认设置成255.255.255.255(单机IP地址),添加掩码时要注意,特别是要确认添加的是某个IP地址还是IP网段,如果代表全部出口子网掩码可用0.0.0.0 10  route Gateway:表示出口网关 11  route interface:表示特殊路由的接口数 12  route metric:表示到达目的网络的跳数 13  -net 后面跟的是目标网络,gw就是gateway(网关入口) 14  */ 15  --局域网的网络地址192.168.1.0/24,局域网络连接其它网络的网关地址是192.168.1.1。主机192.168.1.20访问172.16.1.0/24网络时,其路由设置正确的是 16  route add –net 172.16.1.0 gw 192.168.1.1 netmask 255.255.255.0 metric 1

route

14.cut命令

Shell命令Shell命令

1  cut是一个选取命令,就是将一段数据经过分析,取出我们想要的。一般来说,选取信息通常是针对“行”来进行分析的 2  cut  [-bn] [file] 或 cut [-c] [file]  或  cut [-df] [file] 3  -b :以字节为单位进行分割。这些字节位置将忽略多字节字符边界,除非也指定了-n标志。 4  -c :以字符为单位进行分割。 5  -d :自定义分隔符,默认为制表符。 6  -f  :与-d一起使用,指定显示哪个区域。 7  -n :取消分割多字节字符。仅和 -b 标志一起使用。如果字符的最后一个字节落在由 -b 标志的 List 参数指示的<br />范围之内,该字符将被写出;否则,该字符将被排除。 8

cut

15.sed命令

Shell命令Shell命令

 1  -n --把匹配到的行输出打印到屏幕  2  p  --以行为单位进行查询,通常与-n一起使用  3  eg:df -h | sed -n '2p'     --打印第二行  4  d   --删除  eg :df -h |sed '2d'  --删除第二行  5  a   --在行下边插入新的内容 eg:sed '2d 122344' 1.txt     6  i   --在行上边插入新的内容 eg:sed '2i 122344' 1.txt     7  c   --替换               eg:sed '2c 122344' 1.txt  8  s/被替换的内容/新的内容/g   --eg: sed s/"//g  1.txt  9  -i   --对源文件进行修改    --eg: sed -i s/"//g  1.txt 10  -e   --表示可以执行多条动作 11  sed -n '/100%/p' 1.txt   --匹配到100%的打印出来

sed

16.xargs命令

Shell命令Shell命令

1 /*xargs是给其他命令传递参数的一个过滤器,也是组合多个命令的一个工具,它擅长将标准输入数据转换成命令行采纳数。xargs能够处理管道或者stdin并将其转换成特定命令的命令参数。xargs也可以单行或多行文本输入转换为其他格式,例如多行转单行,单行转多行。xargs的默认命令是echo,空格是默认定界符。 2  */ 3  --多行换入单行输入 4  cat test.txt | xargs 5  ---n 选项多行输出 6  cat test.txt  | xargs -n3 7  --d 自定义定界符 8  echo "abcadbsbdkvbwwlg" | xargs -db

xargs

17.sort命令

Shell命令Shell命令

 1 /*  2 sort命令将文件的每一行作为比较对象,通过将不同行进行相互比较,从而得到最终结果。比较原则是从首字符开始,向后依次按ASCII码值进行比较,最后将结果按升序输出  3 参数:  4 sort -u  :在输出行中去除重复行  5 sort -r  :sort命令默认的排序方式是升序,如果想改成降序,就需要加上 -r  6 sort -o  :由于sort默认是把结果输出到标准输出,所以需要用到重定向才能将结果写入文件,形如sort filename > newfile。但是,如果你想把排序结果输出到原文件中,用重定向可就不行了,需要   7 */  8 sort -n -k 2 -t : facebook.txt  --以冒号分割开,以第二列进行排序  9 sort -r number.txt -o number.txt --排序后重定向到number.txt 10 cat words.txt|xargs -n 1 |sort -r

View Code

18.uniq命令

Shell命令Shell命令

 1 /*  2 uniq 命令用于检查及删除文本文件中重复出现的行列,一般与 sort 命令结合使用。  3 uniq 可检查文本文件中重复出现的行列,直接去重  4 -c: 在每列旁边显示该行重复出现的次数。  5 -d: 仅显示重复出现的行列,显示一行。  6 -D: 显示所有重复出现的行列,有几行显示几行。  7 -u: 仅显示出一次的行列  8 -i: 忽略大小写字符的不同  9 -f Fields: 忽略比较指定的列数。 10 */ 11 --统计words文件里边每个单词出现的次数 12 cat words.txt|xargs -n 1 |sort -r |uniq -c |awk 'print{$2" "$1}'   13 --忽略第一列的字符 14 uniq -c -f 1 uniq.txt 15 --忽略前边四个字符 16 uniq -c -s 4 uniq.txt

View Code