例如:有个文件test的内容如下:
ert
fff
**
[abcfd]
123
324
444
[rty]
**
fgfgf
怎么能截取
[abcfd]
123
324
444
[rty]
这一部分出来呢?
答案: sed -n '/\[abcfd\]/,/\[rty\]/p' test
要求如下:
请使用vmstat采集间隔1秒连续60秒得数据,汇总各项数据的平均值,一并形成一个报告。
答案:
#! /bin/bash
## for vmstat 1 60 and get the average number.
## Writern by Aming.
comm="/usr/bin/vmstat"
f1="/tmp/1.txt"
f2="/tmp/2.txt"
f3="/tmp/3.txt"
$comm 1 60 >$f1
tail -n 60 $f1 >$f2
n=`awk '{print NF}' $f2 |head -n1`
echo "">$f3
for i in `seq 1 $n`; do
awk 'BEGIN {a=0}; {a=a+$"'$i'"};END{print a/NR}' $f2 >> $f3
done
cat $f1
echo "the average number is:"
echo "-----------------------------------------------------------------------------------"
cat $f3|xargs
test的文件内容如下:
root:x:0:0:root:/root:/bin/bash
daemon:x:2:2:daemon:/sbin:/sbin/nologin
adm:x:3:4:adm:/var/adm:/sbin/nologin
lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin
shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
mail:x:8:12:mail:/var/spool/mail:/sbin/nologin
uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
root:x:0:0:root:/root:/bin/bash
daemon:x:2:2:daemon:/sbin:/sbin/nologin
adm:x:3:4:adm:/var/adm:/sbin/nologin
lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin
shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown
halt:x:7:0:halt:/sbin:/sbin/halt
mail:x:8:12:mail:/var/spool/mail:/sbin/nologin
uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
games:x:12:100:games:/usr/games:/sbin/nologin
gopher:x:13:30:gopher:/var/gopher:/sbin/nologin
ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin
答案:grep ^$ test -n|awk -F: '{print $1}' 或者cat test -n |awk '$2~/^$/{print $1}'
我想把root下的2009年的目录都在当前目录打包,之后在把这些文件夹删除,怎么写脚本啊?
这是不是要做两次匹配啊!先匹配一次是d开头的目录,再匹配一次2009日期什么的,最后删除,前面的我会写,后面就匹配日期了我就不会了~~请高手帮忙!!!
strace 命令是一种强大的工具, 能够显示任何由用户空间程式发出的系统调用. strace 显示这些调用的参数并返回符号形式的值. strace 从内核接收信息, 而且无需以任何特别的方式来构建内核. strace 的每一行输出包括系统调用名称, 然后是参数和返回值.
下面记录几个常用option:
-f -F选项告诉strace同时跟踪fork和vfork出来的进程
-o xxx.txt 输出到某个文档.
-e execve 只记录 execve 这类系统调用.
参数说明
-c 统计每一系统调用的所执行的时间,次数和出错的次数等.
-d 输出strace关于标准错误的调试信息.
-f 跟踪由fork调用所产生的子进程.
-ff 如果提供-o filename,则所有进程的跟踪结果输出到相应的filename.pid中,pid是各进程的进程号.
-F 尝试跟踪vfork调用.在-f时,vfork不被跟踪.
-h 输出简要的帮助信息.
-i 输出系统调用的入口指针.
-q 禁止输出关于脱离的消息.
-r 打印出相对时间关于每一个系统调用.
-t 在输出中的每一行前加上时间信息.
-tt 在输出中的每一行前加上时间信息,微秒级.
-ttt 微秒级输出,以秒了表示时间.
-T 显示每一调用所耗的时间.
-v 输出所有的系统调用.一些调用关于环境变量,状态,输入输出等调用由于使用频繁,默认不输出.
-V 输出strace的版本信息.
-x 以十六进制形式输出非标准字符串.
-xx 所有字符串以十六进制形式输出.
-a column 设置返回值的输出位置.默认 为40.
-e expr 指定一个表达式,用来控制如何跟踪.格式如下:
[qualifier=][!]value1[,value2]...
qualifier只能是 trace,abbrev,verbose,raw,signal,read,write其中之一.value是用来限定的符号或数字.默认的 qualifier是 trace.感叹号是否定符号.例如-eopen等价于 -e trace=open,表示只跟踪open调用.而-etrace!=open表示跟踪除了open以外的其它调用.有两个特殊的符号 all 和 none. 注意有些shell使用!来执行历史记录里的命令,所以要使用\\.
-e trace=set 只跟踪指定的系统调用.例如:-e trace=open,close,rean,write表示只跟踪这四个系统调用.默认的为set=all.
-e trace=file 只跟踪有关文件操作的系统调用.
-e trace=process 只跟踪有关进程控制的系统调用.
-e trace=network 跟踪与网络有关的所有系统调用.
-e strace=signal 跟踪所有与系统信号有关的系统调用.
-e trace=ipc 跟踪所有与进程通讯有关的系统调用.
-e abbrev=set 设定strace输出的系统调用的结果集.-v 等与 abbrev=none.默认为abbrev=all.
-e raw=set 将指定的系统调用的参数以十六进制显示.
-e signal=set 指定跟踪的系统信号.默认为all.如 signal=!SIGIO(或者signal=!io),表示不跟踪SIGIO信号.
-e read=set 输出从指定文件中读出的数据.例如-e read=3,5
-e write=set 输出写入到指定文件中的数据.
-o filename 将strace的输出写入文件filename
-p pid 跟踪指定的进程pid.
-s strsize 指定输出的字符串的最大长度.默认为32.文件名一直全部输出.
-u username 以username 的UID和GID执行被跟踪的命令.
需求:备份并压缩/etc目录的所有内容,存放在/root/bak目录里,且文件名为如下形式yymmdd_etc,yy为年,mm为月,dd为日。
我的脚本是这样写的
请高手帮我分析一下为什么我备份后出现的是yymmdd.tar.gz呢?而不是yymmdd_etc呢?请在我的脚本的基础上修改!!!谢谢!
背景:web服务器上默认跑apache,但是偶尔会有负载超级高的时候,(可能是配置了华盾),idc机房又要求必须使用华盾,而且华盾不支持nginx。我们的服务器跑nginx两年一直好好的,可换apache后总是负载很高。所以我想到,当负载高到一定程度时,就切换nginx,当负载降下来再切换回apache。
#! /bin/bash
killphp(){
if `pgrep 'php-fpm'>/dev/null` ; then
/usr/local/php/sbin/php-fpm stop
killall -9 php-fpm
fi
}
killnginx(){
if `pgrep 'nginx' >/dev/null`; then
/etc/init.d/nginx stop
killall -9 nginx
fi
}
killhttpd(){
if `pgrep 'httpd'>/dev/null`; then
killall httpd
kill -9 `ps aux |grep httpd |grep -v 'grep ' |awk '{print $2}'`
fi
}
starthttpd(){
if `pgrep 'httpd'>/dev/null`; then
echo ok >/dev/null
else
/usr/local/apache2/bin/apachectl start
fi
}
startibsys(){
if `pgrep 'ibsysServer'>/dev/null`; then
echo ok >/dev/null
else
/usr/local/ibsys/ibsysServer
fi
}
Load(){
w|grep load |awk -F 'average:' '{print $2}'|awk '{print $1}' |cut -d'.' -f 1
}
rmail="[email protected]"
L="35"
while :; do
killphp
killnginx
starthttpd
startibsys
load=`Load`
if [ $load -gt $L ]; then
free >>/tmp/load.log
top -bn1 |head -n 100 >>/tmp/load.log
killhttpd
killall -9 ibsysServer
sleep 30
killphp
killnginx
/usr/local/php/sbin/php-fpm start 2>/tmp/mail.txt
killhttpd
/etc/init.d/nginx start 2>>/tmp/mail.txt
echo "web-rr load is more than 50 and the apache stop." >>/tmp/mail.txt && mail -s 'web-rr load' $rmail </tmp/mail.txt
sleep 120
load2=`Load`
if [ $load2 -lt 15 ]; then
killphp
killnginx
starthttpd
startibsys
fi
fi
sleep 3
done把这个脚本丢到后台运行即可。
#youdao
for i in 248 249 219 220 ; do iptables -I INPUT -s 61.135.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 44 46 64 74 75 154 158 156; do iptables -I INPUT -s 74.125.$i.0/24 -p tcp --dport 80 -j DROP; done
#Tomato Bot
for i in 93 125 94 104 120 88 19 61; do iptables -I INPUT -s 220.181.$i.0/24 -p tcp --dport 80 -j DROP; done
iptables -I INPUT -s 123.126.50.0/24 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 123.126.68.0/24 -p tcp --dport 80 -j DROP
#bing bot
for i in 49 51 53 104 108 109 110 ; do iptables -I INPUT -s 65.52.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 115 165 25 3 4 37 51 55 ; do iptables -I INPUT -s 65.55.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 107 16 17 18 50 116 36 37 38 39; do iptables -I INPUT -s 157.55.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 0 1 2 ; do iptables -I INPUT -s 157.56.$i.0/24 -p tcp --dport 80 -j DROP; done
for i in 12 13 192 193 194 195 199 204; do iptables -I INPUT -s 207.46.$i.0/24 -p tcp --dport 80 -j DROP; done
#Yahoo
for i in `seq 0 6`; do iptables -I INPUT -s 110.75.17$i.0/24 -p tcp --dport 80 -j DROP; done
for i in `seq 0 5`; do iptables -I INPUT -s 67.195.11$i.0/24 -p tcp --dport 80 -j DROP; done
#web-sniffer
iptables -I INPUT -s 58.68.134.10 -p tcp --dport 80 -j DROP
#jikespider
for i in 220 221 219; do iptables -I INPUT -s 1.202.$i.0/24 -p tcp --dport 80 -j DROP; done
#search17
iptables -I INPUT -s 96.31.166.228 -p tcp --dport 80 -j DROP
#YandexBot
iptables -I INPUT -s 95.108.150.235 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 95.108.151.244 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 95.108.244.252 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 95.108.247.252 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 178.154.200.147 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 178.154.200.158 -p tcp --dport 80 -j DROP
#MJ12bot
iptables -I INPUT -s 188.165.248.204 -p tcp --dport 80 -j DROP
iptables -I INPUT -s 173.236.21.106 -p tcp --dport 80 -j DROP
#qihoo
iptables -I INPUT -s 61.55.186.0/24 -p tcp --dport 80 -j DROP
#! /bin/bash
exec 1>/var/log/serverattbak.log 2>&1
soudir=web:/home/www/attachments
bakdir=/attachments/attbak/serverbak
d=`date --date "-1 day" +%y%m%d`
d2=`date +%y%m%d`
w=`date +%w`
rs=/usr/bin/rsync
echo serverbak begin at `date`
[ -d $bakdir/server-$w ] || mkdir $bakdir/server-$w
if [ $w = "0" ]; then
$rs -ar --delete $soudir/* $bakdir/server-$w/
else
$rs -ar $soudir/day_$d/ $bakdir/server-$w/day_$d/
$rs -ar $soudir/day_$d2/ $bakdir/server-$w/day_$d2/
/usr/bin/find $bakdir/server-$w/ -type f -mmin +1600 |xargs rm -f
fi
echo serverbak end at `date`
达到的目的: 项目程序不定期更新,一旦有更新就需要做一次备份,但是一些日志,缓存,临时文件需要排除掉。
#! /bin/bash
basedir="/data/web/"
bakdir="/data/web_backup"
while :; do
cd $basedir
sum=0
for f in `ls|grep -v logs|grep -v tmp `; do
n=`find $f/ -type f -mmin -5 |wc -l`
sum=$[$sum+$n]
done
prename=`date +%m%d%H%M`
if [ $sum -gt "0" ]; then
/usr/bin/rsync -a --exclude=logs --exclude=tmp $basedir $bakdir/$prename\_web
cd $bakdir
tar zcf $prename\_web.tar.gz $prename\_web
rm -r $prename\_web
/usr/bin/find $bakdir/ -mtime +2 |xargs rm -rf
fi
sleep 300
done
#! /bin/bash
echo "Please input the new ip:"
read ip
echo "please input the web ip:"
read webip
echo "please input the db ip:"
read dbip
ip1=`echo $ip|awk -F'.' '{print $1"."$2"."$3}'`
ip2=$ip1.0\/24
change(){
sed -i "s#\(^hosts.*\)#& $ip2#g" $1
}
addip() {
scp $1:/etc/rsyncd.conf /tmp/$1-rsyncd.conf >/dev/null
if grep -q "$ip2" /tmp/$1-rsyncd.conf; then
echo "$1 has been added the new ip."
else
change /tmp/$1-rsyncd.conf
scp /tmp/$1-rsyncd.conf $1:/etc/rsyncd.conf >/dev/null && echo "$1 add new ip done."
fi
}
addip $webip
addip $dbip
if grep -q $ip2 /etc/rsyncd.conf; then
echo ""
else
change /etc/rsyncd.conf
fi
平时我们用惯了正序循环,可让你倒序输出时,怎么办?
比如 10-1 其实seq就可以实现
seq 1 10 这样其实是从1到10 都输出,那你知道seq到底是怎么用的吗?
其实在1 10 之间还有一个数,那就是增加的差值,默认就是1 ,所以 seq 1 10 等同于 seq 1 1 10
理所当然,你可以把差值弄成 -1
所以,倒序就这样得来了
seq 10 -1 1
用于for中就是这
for i in `seq 10 -1 1`; do echo $i ; done
1、COSS will not function without large file support (off_t is 4 bytes long. Please reconsider recompiling squid with --with-large-files
Bungled squid_webcache.conf 。。。。。。。
检查是否在编译squid的时候未加入 --with-large-files 选项,如果是,重新加入此选项再编译一次squid
2、使用coss缓存格式的时候,squid不断重建cache
可能原因为maxfullbufs值过低,去掉maxfullbufs限制,让其值为无限
3、日志中有类似如下的内容:
2007/03/05 14:46:56| Ready to serve requests.
2007/03/05 14:46:59| clientReadRequest: FD 11 (192.168.1.5:34061) Invalid Request
Illegal character in hostname; underscores are not allowed
注释: 无效的字符串,访问地址中不允许下划线。
解决办法 :
squid 2.5 中,编译的时候加入如下参数
--enable-underscore
允许解析的URL中出现下划线,因为默认squid会认为带下划线的URL地址是非法的,并拒绝访问该地址。
对于 2.6 版本,编译时没有这个参数,这个参数出现在 squid.conf 的配置文档里,说明是这样的:
allow_underscore New option to allow _ in hostnames, replacing the similar build time configure option in 2.5 and earlier.
具体的在 squid.conf 中的参数,可以在配置文档里搜索一下 allow_underscore,看一下配置文档的具体注释。
4、squid的cache.log日志中又类似如下的警告:
WARNING: 100 swapin MD5 mismatches
这个错误是说squid读入一个缓存文件的时候,存储在接口对应的位置的URL不是
squid认为应该存储在那里的数据。这可能是swap.state有错误或文件指到了磁盘
上错误的块(文件系统有错误)。
停止squid应用,删除swap.state然后启动squid,让它通过读取缓存文件来重建缓存
记录,如果重建后仍然出现上面的情况,那应该就是文件系统或磁盘有问题了。
5、日志中出现下面警告:
Jun 28 11:14:38 localhost squid[27178]: squidaio_queue_request: Syncing pending I/O operations.. (blocking)
Jun 28 11:14:59 localhost squid[27178]: squidaio_queue_request: Synced
Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory
Jun 28 11:14:59 localhost squid[27178]: /data/squid/cache_webcache1/00/6B/00006B29
Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory
Jun 28 11:14:59 localhost squid[27178]: /data/squid/cache_webcache1/00/DC/0000DC36
Jun 28 11:14:59 localhost squid[27178]: WARNING: 1 swapin MD5 mismatches
Jun 28 11:14:59 localhost squid[27178]: WARNING: Disk space over limit: 18925740 KB > 16777216 KB
Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory
Jun 28 11:14:59 localhost squid[27178]: /data/squid/cache_webcache2/00/92/0000924F
Jun 28 11:14:59 localhost squid[27178]: storeAufsOpenDone: (2) No such file or directory
Jun 28 11:14:59 localhost squid[27178]: /data/squid/cache_webcache1/03/6F/00036FB6
Jun 28 11:14:59 localhost squid[27178]: squidaio_queue_request: Async request queue growing uncontrollably!
解决方法:
检查配置文件,cache设置为aufs文件系统格式,将此设置改为ufs,重建cache缓存目录
6、运行reconfigure的时候出现squid: ERROR: no running copy
原因是找不到pid文件,如果不是使用默认的squid.conf作为squid 的设置文件,在用squid目录下sbin/squid进行重新启动等动作的时候要加上-f的参数制定配置文件,同时检查pid文件是否存在,有时候可能错误地配置了pid文件到不存在的目录,或者将pid文件配置到了应用没有权限写入的目录,导致没有创建pid文件,如果pid文件不存在,可以手工创建该pid,然后获取squid的pid并写人pid文件。
7、squid在压力大的情况下响应非常慢
检查是否文件描述符太小,如果是,调整文件描述符限制,重启squid,检查squid运行的文件描述符,如果为调整后的,则在启动脚本处启动squid的地方加入调整文件描述符的命令,否则除此外还需先调整文件描述符限制然后重新编译安装一次squid
8、缓存效率下降,查看日志无报错,netstat -na查看连接有比较多的连接为SYN_RE,且多为同一IP过来的连接
优化TCP网络
echo 1 > /proc/sys/net/ipv4/tcp_syncookies
echo 1 > /proc/sys/net/ipv4/tcp_synack_retries
echo 1 > /proc/sys/net/ipv4/tcp_syn_retries
9、缓存效率低,网卡输入输出流量差距很小。
首先查看系统日志有无squid的报错,如果没有再查看dmesg,看看有无丢包,是否网卡问题,如果没有再查看网关
使用squid的时候网关问题关系重大,如果网关没有配置正确,将可能导致用户访问不了。
10、日志报如下错误:squid: Could not determine fully qualified hostname. Please set 'visible_hostname'
检查/etc/hosts文件、/etc/sysconfig/network文件、和hostname命令结果,看看三者是否对应,如果不对应,需要修改为对应,并且/etc/hosts文件中对应的配置还需要有合法域名格式
/etc/sysconfig/network中的hostname是系统启动时候加载的hostname值,如果此值与/etc/hosts文件中的值不对应并且squid中没有设置visible_hostname选项的话,会导致系统重启后squid不能正常启动。
11、日志大量报如下错误:
Apr 29 08:28:56 localhost squid[13851]: httpReadReply: Excess data from "HEAD http://192.168.230.1/"
Apr 29 08:28:56 localhost squid[13851]: httpReadReply: Excess data from "HEAD http://192.168.230.1/"
这表明服务器返回一个超过squid声明的响应对象最大值的返回值。
它违反了HTTP协议并导致服务器返回被截断。
12.runcache发现频繁重启后停止服务:
:./bin/RunCache Running: squid -sY >> /usr/local/squid//var/squid.out 2>&1
./bin/RunCache: line 35: 20000 File size limit exceededsquid -NsY $conf >>$logdir/squid.out 2>&1
./bin/RunCache: line 35: 20177 File size limit exceededsquid -NsY $conf >>$logdir/squid.out 2>&1
RunCache: EXITING DUE TO REPEATED, FREQUENT FAILURES
故障原因: log超过了ext3文件系统最大支持容量2G导致,解决办法:
1)每天轮循一次日志0 0 * * * /usr/local/squid/sbin/squid -k rotate
出现这个错误的原因是因为文件系统的描述符数量不够用了,linux系统默认是1024,可以通过 ulimit -n 查看,
解决办法是:
首先, ulimit -HSn 65535
然后要重新编译squid 编译时加上参数 --with-maxfd=65535
- «
- 1
- ...
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- ...
- 66
- »