打印文件中特定的某行到某行之间的内容

例如:有个文件test的内容如下:
ert
fff
**
[abcfd]
123
324
444
[rty]
**
fgfgf
怎么能截取
[abcfd]
123
324
444
[rty]
这一部分出来呢?

答案: sed -n '/\[abcfd\]/,/\[rty\]/p' test

系统巡检脚本

要求如下:
请使用vmstat采集间隔1秒连续60秒得数据,汇总各项数据的平均值,一并形成一个报告。


答案:#! /bin/bash

## for vmstat 1 60 and get the average number.
## Writern by Aming.

comm="/usr/bin/vmstat"
f1="/tmp/1.txt"
f2="/tmp/2.txt"
f3="/tmp/3.txt"

$comm 1 60 >$f1
tail -n 60 $f1 >$f2
n=`awk '{print NF}' $f2 |head -n1`
echo "">$f3
for i in `seq 1 $n`; do
        awk 'BEGIN {a=0}; {a=a+$"'$i'"};END{print a/NR}' $f2 >> $f3
done

cat $f1
echo "the average number is:"
echo "-----------------------------------------------------------------------------------"
cat $f3|xargs

打印test文件里面空行所在的行号

test的文件内容如下:
root:x:0:0:root:/root:/bin/bash

daemon:x:2:2:daemon:/sbin:/sbin/nologin
adm:x:3:4:adm:/var/adm:/sbin/nologin
lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
mail:x:8:12:mail:/var/spool/mail:/sbin/nologin
uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
root:x:0:0:root:/root:/bin/bash

daemon:x:2:2:daemon:/sbin:/sbin/nologin
adm:x:3:4:adm:/var/adm:/sbin/nologin
lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
mail:x:8:12:mail:/var/spool/mail:/sbin/nologin
uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
games:x:12:100:games:/usr/games:/sbin/nologin

gopher:x:13:30:gopher:/var/gopher:/sbin/nologin
ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin

答案:grep ^$ test -n|awk -F: '{print $1}' 或者cat test -n |awk '$2~/^$/{print $1}'

Shell脚本实现

我想把root下的2009年的目录都在当前目录打包,之后在把这些文件夹删除,怎么写脚本啊?
这是不是要做两次匹配啊!先匹配一次是d开头的目录,再匹配一次2009日期什么的,最后删除,前面的我会写,后面就匹配日期了我就不会了~~请高手帮忙!!!

Strace 命令详解

strace 命令是一种强大的工具, 能够显示任何由用户空间程式发出的系统调用. strace 显示这些调用的参数并返回符号形式的值. strace 从内核接收信息, 而且无需以任何特别的方式来构建内核. strace 的每一行输出包括系统调用名称, 然后是参数和返回值.
下面记录几个常用option:

-f -F选项告诉strace同时跟踪fork和vfork出来的进程
-o xxx.txt 输出到某个文档.
-e execve 只记录 execve 这类系统调用.

参数说明

-c 统计每一系统调用的所执行的时间,次数和出错的次数等.
-d 输出strace关于标准错误的调试信息.
-f 跟踪由fork调用所产生的子进程.
-ff 如果提供-o filename,则所有进程的跟踪结果输出到相应的filename.pid中,pid是各进程的进程号.
-F 尝试跟踪vfork调用.在-f时,vfork不被跟踪.
-h 输出简要的帮助信息.
-i 输出系统调用的入口指针.
-q 禁止输出关于脱离的消息.
-r 打印出相对时间关于每一个系统调用.
-t 在输出中的每一行前加上时间信息.
-tt 在输出中的每一行前加上时间信息,微秒级.
-ttt 微秒级输出,以秒了表示时间.
-T 显示每一调用所耗的时间.
-v 输出所有的系统调用.一些调用关于环境变量,状态,输入输出等调用由于使用频繁,默认不输出.
-V 输出strace的版本信息.
-x 以十六进制形式输出非标准字符串.
-xx 所有字符串以十六进制形式输出.
-a column 设置返回值的输出位置.默认 为40.
-e expr 指定一个表达式,用来控制如何跟踪.格式如下:
[qualifier=][!]value1[,value2]...
qualifier只能是 trace,abbrev,verbose,raw,signal,read,write其中之一.value是用来限定的符号或数字.默认的 qualifier是 trace.感叹号是否定符号.例如-eopen等价于 -e trace=open,表示只跟踪open调用.而-etrace!=open表示跟踪除了open以外的其它调用.有两个特殊的符号 all 和 none. 注意有些shell使用!来执行历史记录里的命令,所以要使用\\.
-e trace=set 只跟踪指定的系统调用.例如:-e trace=open,close,rean,write表示只跟踪这四个系统调用.默认的为set=all.
-e trace=file 只跟踪有关文件操作的系统调用.
-e trace=process 只跟踪有关进程控制的系统调用.
-e trace=network 跟踪与网络有关的所有系统调用.
-e strace=signal 跟踪所有与系统信号有关的系统调用.
-e trace=ipc 跟踪所有与进程通讯有关的系统调用.
-e abbrev=set 设定strace输出的系统调用的结果集.-v 等与 abbrev=none.默认为abbrev=all.
-e raw=set 将指定的系统调用的参数以十六进制显示.
-e signal=set 指定跟踪的系统信号.默认为all.如 signal=!SIGIO(或者signal=!io),表示不跟踪SIGIO信号.
-e read=set 输出从指定文件中读出的数据.例如-e read=3,5
-e write=set 输出写入到指定文件中的数据.
-o filename 将strace的输出写入文件filename
-p pid 跟踪指定的进程pid.
-s strsize 指定输出的字符串的最大长度.默认为32.文件名一直全部输出.
-u username 以username 的UID和GID执行被跟踪的命令.

脚本问题

需求:备份并压缩/etc目录的所有内容,存放在/root/bak目录里,且文件名为如下形式yymmdd_etc,yy为年,mm为月,dd为日。
我的脚本是这样写的

请高手帮我分析一下为什么我备份后出现的是yymmdd.tar.gz呢?而不是yymmdd_etc呢?请在我的脚本的基础上修改!!!谢谢!

网卡发包很大时抓包脚本

本帖隐藏的内容需要回复才可以浏览

apache 和 nginx 切换

背景:web服务器上默认跑apache,但是偶尔会有负载超级高的时候,(可能是配置了华盾),idc机房又要求必须使用华盾,而且华盾不支持nginx。我们的服务器跑nginx两年一直好好的,可换apache后总是负载很高。所以我想到,当负载高到一定程度时,就切换nginx,当负载降下来再切换回apache。#! /bin/bash

killphp(){
if `pgrep  'php-fpm'>/dev/null` ; then
        /usr/local/php/sbin/php-fpm stop
        killall -9 php-fpm
fi
}

killnginx(){
if `pgrep  'nginx' >/dev/null`; then
        /etc/init.d/nginx stop
        killall -9 nginx
fi
}

killhttpd(){
if `pgrep 'httpd'>/dev/null`; then
        killall httpd
        kill -9 `ps aux |grep httpd |grep -v 'grep ' |awk '{print $2}'`
fi
}

starthttpd(){
if `pgrep 'httpd'>/dev/null`; then
        echo ok >/dev/null
else
        /usr/local/apache2/bin/apachectl start
fi
}

startibsys(){
if `pgrep 'ibsysServer'>/dev/null`; then
        echo ok >/dev/null
else
        /usr/local/ibsys/ibsysServer
fi
}

Load(){

w|grep load |awk -F 'average:' '{print $2}'|awk '{print $1}' |cut -d'.' -f 1

}

rmail="[email protected]"
L="35"

while :; do

        killphp
        killnginx
        starthttpd
        startibsys

        load=`Load`
        if [ $load -gt $L ]; then
                free >>/tmp/load.log
                top -bn1 |head -n 100 >>/tmp/load.log
                killhttpd
                killall -9 ibsysServer
                sleep 30
                killphp
                killnginx
                /usr/local/php/sbin/php-fpm start 2>/tmp/mail.txt
                killhttpd
                /etc/init.d/nginx start 2>>/tmp/mail.txt
                echo "web-rr load is more than 50 and the apache stop." >>/tmp/mail.txt && mail -s 'web-rr load' $rmail </tmp/mail.txt
                sleep 120
                load2=`Load`
                if [ $load2 -lt 15 ]; then
                        killphp
                        killnginx
                        starthttpd
                        startibsys
                fi
        fi
        sleep 3
done
把这个脚本丢到后台运行即可。

封蜘蛛

#youdao
for i in 248 249 219 220 ; do iptables -I INPUT -s 61.135.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 44 46 64 74 75 154 158 156; do iptables -I INPUT -s 74.125.$i.0/24 -p tcp --dport 80 -j DROP; done
#Tomato Bot
for i in 93 125 94 104 120 88 19 61; do iptables -I INPUT -s 220.181.$i.0/24 -p tcp --dport 80 -j DROP; done
iptables -I INPUT -s 123.126.50.0/24 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 123.126.68.0/24 -p tcp --dport 80 -j DROP
#bing bot
for i in 49 51 53 104 108 109 110 ; do iptables -I INPUT -s 65.52.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 115 165 25 3 4 37 51 55 ; do iptables -I INPUT -s 65.55.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 107 16 17 18 50 116 36 37 38 39; do iptables -I INPUT -s 157.55.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 0 1 2 ; do iptables -I INPUT -s 157.56.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 12 13 192 193 194 195 199 204; do iptables -I INPUT -s 207.46.$i.0/24 -p tcp --dport 80 -j DROP; done
#Yahoo
for i in `seq 0 6`; do iptables -I INPUT -s 110.75.17$i.0/24 -p tcp --dport 80 -j DROP; done
for i in `seq 0 5`; do iptables -I INPUT -s 67.195.11$i.0/24 -p tcp --dport 80 -j DROP; done
#web-sniffer
iptables -I INPUT -s 58.68.134.10 -p tcp --dport 80 -j DROP
#jikespider
for i in 220 221 219; do iptables -I INPUT -s 1.202.$i.0/24 -p tcp --dport 80 -j DROP; done
#search17
iptables -I INPUT -s 96.31.166.228 -p tcp --dport 80 -j DROP
#YandexBot
iptables -I INPUT -s 95.108.150.235 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 95.108.151.244 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 95.108.244.252 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 95.108.247.252 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 178.154.200.147 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 178.154.200.158 -p tcp --dport 80 -j DROP
#MJ12bot
iptables -I INPUT -s 188.165.248.204 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 173.236.21.106 -p tcp --dport 80 -j DROP
#qihoo
iptables -I INPUT -s 61.55.186.0/24 -p tcp --dport 80 -j DROP

discuz论坛附件递增备份脚本

#! /bin/bash
exec 1>/var/log/serverattbak.log 2>&1
soudir=web:/home/www/attachments
bakdir=/attachments/attbak/serverbak
d=`date --date "-1 day" +%y%m%d`
d2=`date  +%y%m%d`
w=`date +%w`
rs=/usr/bin/rsync
echo serverbak begin at `date`
[ -d $bakdir/server-$w ] || mkdir $bakdir/server-$w
if [ $w = "0" ]; then

        $rs -ar --delete $soudir/* $bakdir/server-$w/
else
        $rs -ar $soudir/day_$d/  $bakdir/server-$w/day_$d/
        $rs -ar $soudir/day_$d2/  $bakdir/server-$w/day_$d2/
        /usr/bin/find $bakdir/server-$w/ -type f -mmin +1600 |xargs rm -f
fi
echo serverbak end at `date`

分享我的一个脚本,检测程序更新,有更新做备份

达到的目的: 项目程序不定期更新,一旦有更新就需要做一次备份,但是一些日志,缓存,临时文件需要排除掉。#! /bin/bash

basedir="/data/web/"
bakdir="/data/web_backup"

while :; do
    cd $basedir
    sum=0
    for f in `ls|grep -v logs|grep -v tmp `; do
        n=`find  $f/ -type f -mmin -5 |wc -l`
        sum=$[$sum+$n]
    done
    prename=`date +%m%d%H%M`
    if [ $sum -gt "0" ]; then
        /usr/bin/rsync -a --exclude=logs --exclude=tmp $basedir $bakdir/$prename\_web
        cd $bakdir
        tar zcf  $prename\_web.tar.gz  $prename\_web
        rm -r $prename\_web
        /usr/bin/find $bakdir/  -mtime +2 |xargs rm -rf
    fi
    sleep 300
done
         

为远程服务器增加rsyncd的信任IP

#! /bin/bash

echo "Please input the new ip:"
read ip
echo "please input the web ip:"
read webip
echo "please input the db ip:"
read dbip

ip1=`echo $ip|awk -F'.' '{print $1"."$2"."$3}'`
ip2=$ip1.0\/24

change(){
    sed  -i "s#\(^hosts.*\)#& $ip2#g" $1
}

addip() {
    scp $1:/etc/rsyncd.conf /tmp/$1-rsyncd.conf >/dev/null
    if grep -q "$ip2" /tmp/$1-rsyncd.conf; then
        echo "$1 has been added the new ip."
    else
        change /tmp/$1-rsyncd.conf
        scp /tmp/$1-rsyncd.conf $1:/etc/rsyncd.conf >/dev/null && echo "$1 add new ip done."
    fi
}

addip $webip
addip $dbip
if grep -q $ip2 /etc/rsyncd.conf; then
    echo ""
else
    change /etc/rsyncd.conf
fi

shell中for的倒序循环

平时我们用惯了正序循环,可让你倒序输出时,怎么办?
比如 10-1  其实seq就可以实现

seq  1 10  这样其实是从1到10 都输出,那你知道seq到底是怎么用的吗?
其实在1 10 之间还有一个数,那就是增加的差值,默认就是1 ,所以  seq  1 10 等同于 seq 1 1 10
理所当然,你可以把差值弄成 -1
所以,倒序就这样得来了

seq  10 -1 1

用于for中就是这
for  i in `seq  10 -1 1`; do echo $i ; done

squid故障汇总

1、COSS will not function without large file support (off_t is 4 bytes long. Please reconsider recompiling squid with --with-large-files


Bungled squid_webcache.conf 。。。。。。。

检查是否在编译squid的时候未加入 --with-large-files 选项,如果是,重新加入此选项再编译一次squid



2、使用coss缓存格式的时候,squid不断重建cache

可能原因为maxfullbufs值过低,去掉maxfullbufs限制,让其值为无限



3、日志中有类似如下的内容:


2007/03/05 14:46:56| Ready to serve requests.

2007/03/05 14:46:59| clientReadRequest: FD 11 (192.168.1.5:34061) Invalid Request


Illegal character in hostname; underscores are not allowed


注释: 无效的字符串,访问地址中不允许下划线。

解决办法 :

squid 2.5 中,编译的时候加入如下参数

--enable-underscore


允许解析的URL中出现下划线,因为默认squid会认为带下划线的URL地址是非法的,并拒绝访问该地址。



对于 2.6 版本,编译时没有这个参数,这个参数出现在 squid.conf 的配置文档里,说明是这样的:



allow_underscore New option to allow _ in hostnames, replacing the similar build time configure option in 2.5 and earlier.



具体的在 squid.conf 中的参数,可以在配置文档里搜索一下 allow_underscore,看一下配置文档的具体注释。



4、squid的cache.log日志中又类似如下的警告:

WARNING: 100 swapin MD5 mismatches


这个错误是说squid读入一个缓存文件的时候,存储在接口对应的位置的URL不是

squid认为应该存储在那里的数据。这可能是swap.state有错误或文件指到了磁盘

上错误的块(文件系统有错误)。

停止squid应用,删除swap.state然后启动squid,让它通过读取缓存文件来重建缓存

记录,如果重建后仍然出现上面的情况,那应该就是文件系统或磁盘有问题了。


5、日志中出现下面警告:

Jun 28 11:14:38 localhost squid[27178]: squidaio_queue_request: Syncing pending I/O operations.. (blocking)

Jun 28 11:14:59 localhost squid[27178]: squidaio_queue_request: Synced

Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory

Jun 28 11:14:59 localhost squid[27178]:         /data/squid/cache_webcache1/00/6B/00006B29

Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory

Jun 28 11:14:59 localhost squid[27178]:         /data/squid/cache_webcache1/00/DC/0000DC36

Jun 28 11:14:59 localhost squid[27178]: WARNING: 1 swapin MD5 mismatches

Jun 28 11:14:59 localhost squid[27178]: WARNING: Disk space over limit: 18925740 KB > 16777216 KB

Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory

Jun 28 11:14:59 localhost squid[27178]:         /data/squid/cache_webcache2/00/92/0000924F

Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory

Jun 28 11:14:59 localhost squid[27178]:         /data/squid/cache_webcache1/03/6F/00036FB6

Jun 28 11:14:59 localhost squid[27178]: squidaio_queue_request: Async request queue growing uncontrollably!


解决方法:

检查配置文件,cache设置为aufs文件系统格式,将此设置改为ufs,重建cache缓存目录


6、运行reconfigure的时候出现squid: ERROR: no running copy



原因是找不到pid文件,如果不是使用默认的squid.conf作为squid 的设置文件,在用squid目录下sbin/squid进行重新启动等动作的时候要加上-f的参数制定配置文件,同时检查pid文件是否存在,有时候可能错误地配置了pid文件到不存在的目录,或者将pid文件配置到了应用没有权限写入的目录,导致没有创建pid文件,如果pid文件不存在,可以手工创建该pid,然后获取squid的pid并写人pid文件。


7、squid在压力大的情况下响应非常慢




检查是否文件描述符太小,如果是,调整文件描述符限制,重启squid,检查squid运行的文件描述符,如果为调整后的,则在启动脚本处启动squid的地方加入调整文件描述符的命令,否则除此外还需先调整文件描述符限制然后重新编译安装一次squid

8、缓存效率下降,查看日志无报错,netstat -na查看连接有比较多的连接为SYN_RE,且多为同一IP过来的连接

优化TCP网络

echo 1 > /proc/sys/net/ipv4/tcp_syncookies

echo 1 > /proc/sys/net/ipv4/tcp_synack_retries

echo 1 > /proc/sys/net/ipv4/tcp_syn_retries


9、缓存效率低,网卡输入输出流量差距很小。

   首先查看系统日志有无squid的报错,如果没有再查看dmesg,看看有无丢包,是否网卡问题,如果没有再查看网关

   使用squid的时候网关问题关系重大,如果网关没有配置正确,将可能导致用户访问不了。


10、日志报如下错误:squid: Could not determine fully qualified hostname. Please set 'visible_hostname'

    检查/etc/hosts文件、/etc/sysconfig/network文件、和hostname命令结果,看看三者是否对应,如果不对应,需要修改为对应,并且/etc/hosts文件中对应的配置还需要有合法域名格式

   /etc/sysconfig/network中的hostname是系统启动时候加载的hostname值,如果此值与/etc/hosts文件中的值不对应并且squid中没有设置visible_hostname选项的话,会导致系统重启后squid不能正常启动。


11、日志大量报如下错误:

Apr 29 08:28:56 localhost squid[13851]: httpReadReply: Excess data from "HEAD http://192.168.230.1/"

Apr 29 08:28:56 localhost squid[13851]: httpReadReply: Excess data from "HEAD http://192.168.230.1/"


这表明服务器返回一个超过squid声明的响应对象最大值的返回值。

它违反了HTTP协议并导致服务器返回被截断。


12.runcache发现频繁重启后停止服务:

  :./bin/RunCache Running: squid -sY >> /usr/local/squid//var/squid.out 2>&1

  ./bin/RunCache: line 35: 20000 File size limit exceededsquid -NsY $conf >>$logdir/squid.out 2>&1

  ./bin/RunCache: line 35: 20177 File size limit exceededsquid -NsY $conf >>$logdir/squid.out 2>&1

  RunCache: EXITING DUE TO REPEATED, FREQUENT FAILURES

  故障原因: log超过了ext3文件系统最大支持容量2G导致,解决办法:

  1)每天轮循一次日志0 0 * * * /usr/local/squid/sbin/squid -k rotate

WARNING! Your cache is running out of filedescriptors


出现这个错误的原因是因为文件系统的描述符数量不够用了,linux系统默认是1024,可以通过 ulimit -n 查看,
解决办法是:
首先, ulimit -HSn 65535
然后要重新编译squid 编译时加上参数 --with-maxfd=65535