跳过正文
  1. 博客文章/

Shell 脚本编程完整实战指南

·19504 字·92 分钟·
编程 运维 系统管理 Shell Bash 脚本编程 Linux 系统管理 运维自动化
Zayn
作者
Zayn
专注 Kubernetes、CI/CD、可观测性等云原生技术栈,记录生产环境中的实战经验与踩坑复盘。
目录

Shell 是 Linux/Unix 系统的核心组件,既是命令行解释器,也是强大的脚本编程语言。掌握 Shell 编程对于系统管理员、运维工程师和开发者来说至关重要。本指南将从基础概念开始,逐步深入到高级应用,帮助您全面掌握 Shell 的使用技巧。

Shell 基础概念
#

什么是 Shell
#

Shell 是用户与 Linux 内核交互的接口,它具有以下特点:

  • 命令解释器: 解释和执行用户输入的命令
  • 编程语言: 支持变量、函数、控制结构等编程特性
  • 脚本执行器: 可以执行包含多个命令的脚本文件
  • 环境管理器: 管理环境变量和系统配置

常见的 Shell 类型
#

# 查看系统支持的 Shell
cat /etc/shells

# 常见的 Shell 类型
/bin/sh          # Bourne Shell (最原始的 Shell)
/bin/bash        # Bourne Again Shell (最常用)
/bin/zsh         # Z Shell (功能强大)
/bin/fish        # Friendly Interactive Shell
/bin/dash        # Debian Almquist Shell
/bin/csh         # C Shell
/bin/tcsh        # TENEX C Shell

# 查看当前使用的 Shell
echo $SHELL
echo $0

# 切换 Shell
chsh -s /bin/zsh

Shell 脚本基础
#

脚本结构
#

#!/bin/bash
# 这是一个 Shell 脚本示例
# 作者: Your Name
# 日期: 2023-01-01
# 描述: 脚本功能说明

# 设置脚本选项
set -e          # 遇到错误立即退出
set -u          # 使用未定义变量时报错
set -o pipefail # 管道中任何命令失败都会导致整个管道失败

# 脚本内容
echo "Hello, World!"

脚本执行方式
#

# 方式1: 直接执行(需要执行权限)
chmod +x script.sh
./script.sh

# 方式2: 使用解释器执行
bash script.sh
sh script.sh

# 方式3: 使用 source 或 . 执行(在当前 Shell 中执行)
source script.sh
. script.sh

# 方式4: 使用管道执行
cat script.sh | bash

变量和环境
#

变量定义和使用
#

# 变量定义(注意等号两边不能有空格)
name="John"
age=25
readonly PI=3.14159    # 只读变量
declare -i count=0     # 整数变量

# 变量使用
echo $name
echo ${name}           # 推荐使用花括号
echo "Hello, $name!"
echo "Age: ${age} years old"

# 变量默认值
echo ${name:-"Unknown"}        # 如果 name 为空,使用默认值
echo ${name:="Default"}        # 如果 name 为空,设置并使用默认值
echo ${name:?"Variable not set"}  # 如果 name 为空,报错退出

# 变量长度
echo ${#name}          # 输出变量值的长度

# 变量替换
filename="document.txt"
echo ${filename%.txt}  # 删除后缀,输出: document
echo ${filename#doc}   # 删除前缀,输出: ument.txt

环境变量
#

# 常用环境变量
echo $HOME            # 用户主目录
echo $PATH            # 可执行文件搜索路径
echo $PWD             # 当前工作目录
echo $USER            # 当前用户名
echo $SHELL           # 当前 Shell
echo $LANG            # 语言设置
echo $PS1             # 命令提示符

# 设置环境变量
export MY_VAR="value"
export PATH=$PATH:/new/path

# 查看所有环境变量
env
printenv

# 取消环境变量
unset MY_VAR

特殊变量
#

# 位置参数
echo $0               # 脚本名称
echo $1               # 第一个参数
echo $2               # 第二个参数
echo $#               # 参数个数
echo $@               # 所有参数(作为独立字符串)
echo $*               # 所有参数(作为单个字符串)

# 进程相关
echo $$               # 当前进程 PID
echo $!               # 最后一个后台进程 PID
echo $?               # 上一个命令的退出状态

# 示例脚本
#!/bin/bash
echo "脚本名称: $0"
echo "参数个数: $#"
echo "所有参数: $@"
echo "第一个参数: $1"
echo "第二个参数: $2"

文件和目录操作
#

目录导航和管理
#

基础目录操作
#

# 目录导航
pwd                        # 显示当前工作目录
cd /path/to/directory      # 切换到指定目录
cd ~                       # 切换到用户主目录
cd -                       # 切换到上一个工作目录
cd ..                      # 切换到上级目录
cd ../..                   # 切换到上两级目录

# 目录创建和删除
mkdir directory            # 创建目录
mkdir -p /path/to/deep/dir # 递归创建目录结构
mkdir -m 755 directory     # 创建目录并设置权限
rmdir directory            # 删除空目录
rm -rf directory           # 强制递归删除目录(危险操作)

# 目录信息
ls -la                     # 详细列出文件和目录
ls -lah                    # 人类可读的文件大小格式
ls -lt                     # 按修改时间排序
ls -lS                     # 按文件大小排序
ls -lR                     # 递归列出所有子目录

高级目录操作
#

# 目录栈操作
pushd /path/to/dir         # 将目录压入栈并切换
popd                       # 弹出栈顶目录并切换
dirs                       # 显示目录栈

# 查找目录
find / -type d -name "dirname" 2>/dev/null
locate dirname             # 快速查找(需要 updatedb)

# 目录大小统计
du -sh directory           # 显示目录总大小
du -h --max-depth=1        # 显示当前目录下各子目录大小
du -h | sort -hr           # 按大小排序显示

# 目录同步
rsync -av source/ dest/    # 同步目录
rsync -av --delete source/ dest/  # 同步并删除目标中多余文件

文件查看和内容处理
#

文件内容查看
#

# 基础查看命令
cat filename               # 显示文件全部内容
cat -n filename            # 显示内容并加行号
cat -A filename            # 显示所有字符(包括不可见字符)

# 分页查看
less filename              # 分页查看(推荐)
more filename              # 简单分页查看
head -n 20 filename        # 显示前 20 行
tail -n 20 filename        # 显示后 20 行
tail -f filename           # 实时监控文件变化
tail -F filename           # 持续监控(文件轮转后继续)

# 高级查看技巧
cat file | nl | less       # 带行号分页查看
head -c 100 filename       # 显示前 100 个字符
tail -c 100 filename       # 显示后 100 个字符

文件内容搜索
#

# grep 搜索
grep "pattern" filename    # 搜索包含模式的行
grep -i "pattern" filename # 忽略大小写搜索
grep -v "pattern" filename # 反向搜索(不包含模式的行)
grep -n "pattern" filename # 显示行号
grep -r "pattern" directory # 递归搜索目录
grep -E "pattern1|pattern2" filename # 使用扩展正则表达式

# 高级搜索
grep -A 3 -B 3 "pattern" filename  # 显示匹配行前后 3 行
grep -C 3 "pattern" filename       # 显示匹配行前后 3 行
grep -l "pattern" *.txt             # 只显示包含模式的文件名
grep -c "pattern" filename          # 统计匹配行数

# 多文件搜索
grep -r --include="*.log" "ERROR" /var/log/
find /path -name "*.txt" -exec grep -l "pattern" {} \;

文件操作和处理
#

文件创建和编辑
#

# 文件创建
touch filename             # 创建空文件或更新时间戳
touch -t 202301011200 file # 设置特定时间戳
echo "content" > filename  # 创建文件并写入内容
cat > filename << EOF      # 多行内容写入
line 1
line 2
EOF

# 文件复制和移动
cp source dest             # 复制文件
cp -r source_dir dest_dir  # 递归复制目录
cp -p source dest          # 保持文件属性
mv source dest             # 移动/重命名文件
mv *.txt backup/           # 批量移动文件

文件属性和权限
#

# 文件权限
chmod 755 filename         # 设置权限(rwxr-xr-x)
chmod +x filename          # 添加执行权限
chmod -w filename          # 移除写权限
chmod u+x,g-w,o-r filename # 复杂权限设置

# 文件所有权
chown user:group filename  # 更改所有者和组
chown -R user:group dir/   # 递归更改目录所有权
chgrp group filename       # 只更改组

# 文件属性
chattr +i filename         # 设置不可修改属性
chattr -i filename         # 移除不可修改属性
lsattr filename            # 查看文件属性

文件格式和编码
#

# 文件格式转换
dos2unix filename          # Windows 格式转 Unix 格式
unix2dos filename          # Unix 格式转 Windows 格式
iconv -f gbk -t utf8 source.txt > target.txt  # 编码转换

# 文件类型检测
file filename              # 检查文件类型
file -i filename           # 显示 MIME 类型
enca filename              # 检查文件编码

# 文件校验
md5sum filename            # MD5 校验
sha1sum filename           # SHA1 校验
sha256sum filename         # SHA256 校验
cksum filename             # CRC 校验

文件分割和合并
#

# 文件分割
split -b 10M largefile prefix_    # 按大小分割(10MB 每个)
split -l 1000 largefile prefix_   # 按行数分割(1000 行每个)
split -n 5 largefile prefix_      # 分割成 5 个文件

# 文件合并
cat prefix_* > merged_file         # 合并分割的文件
cat file1 file2 file3 > merged     # 合并多个文件

# 文件截取
head -c 1M largefile > first_1mb   # 截取前 1MB
tail -c 1M largefile > last_1mb    # 截取后 1MB
dd if=largefile of=part bs=1M count=10  # 使用 dd 截取

文本处理和数据操作
#

文本排序和去重
#

排序操作
#

# 基础排序
sort filename              # 按字典序排序
sort -n filename           # 按数值排序
sort -r filename           # 反向排序
sort -u filename           # 排序并去重
sort -k2 filename          # 按第二列排序
sort -t: -k3 -n /etc/passwd # 以冒号分隔,按第三列数值排序

# 高级排序
sort -k1,1 -k2,2n filename # 先按第一列排序,再按第二列数值排序
sort -M filename           # 按月份排序(Jan, Feb, Mar...)
sort -h filename           # 按人类可读的数值排序(1K, 2M, 3G)
sort -R filename           # 随机排序
sort -c filename           # 检查文件是否已排序

# 排序示例
cat > data.txt << EOF
apple 10
banana 5
cherry 15
date 8
EOF

sort data.txt              # 按字母排序
sort -k2 -n data.txt       # 按第二列数值排序

去重操作
#

# uniq 命令(需要先排序)
sort filename | uniq       # 去除重复行
sort filename | uniq -c    # 统计每行出现次数
sort filename | uniq -d    # 只显示重复的行
sort filename | uniq -u    # 只显示不重复的行

# 直接去重(不需要排序)
awk '!seen[$0]++' filename # 保持原始顺序去重

文本切割和合并
#

cut 命令
#

# 按字符位置切割
cut -c1-5 filename         # 提取每行的第1-5个字符
cut -c1,3,5 filename       # 提取第1、3、5个字符
cut -c5- filename          # 从第5个字符开始到行尾

# 按分隔符切割
cut -d: -f1 /etc/passwd    # 以冒号分隔,提取第一列
cut -d: -f1,3 /etc/passwd  # 提取第1和第3列
cut -d: -f3- /etc/passwd   # 从第3列开始到最后

# 实用示例
ps aux | cut -c1-20        # 提取进程信息的前20个字符
echo "192.168.1.100" | cut -d. -f1-3  # 提取IP的前三段

paste 命令
#

# 文件合并
paste file1 file2          # 按行合并两个文件(Tab分隔)
paste -d, file1 file2       # 用逗号分隔合并
paste -d: file1 file2 file3 # 用冒号分隔合并三个文件
paste -s filename           # 将多行合并为一行

# 实用示例
seq 1 5 > numbers.txt
seq a e > letters.txt
paste numbers.txt letters.txt  # 合并数字和字母

文本替换和编辑
#

sed 流编辑器
#

# 基础替换
sed 's/old/new/' filename          # 替换每行第一个匹配
sed 's/old/new/g' filename         # 替换所有匹配
sed 's/old/new/2' filename         # 替换每行第二个匹配
sed -i 's/old/new/g' filename      # 直接修改文件

# 行操作
sed -n '5p' filename               # 只打印第5行
sed -n '5,10p' filename            # 打印第5-10行
sed '5d' filename                  # 删除第5行
sed '5,10d' filename               # 删除第5-10行
sed '/pattern/d' filename          # 删除包含模式的行

# 高级操作
sed '/pattern/s/old/new/g' filename # 只在包含pattern的行中替换
sed 's/^/prefix_/' filename         # 在每行开头添加前缀
sed 's/$/suffix/' filename          # 在每行结尾添加后缀
sed 'G' filename                    # 在每行后添加空行

# 实用示例
sed 's/[0-9]/X/g' filename         # 将所有数字替换为X
sed '/^$/d' filename               # 删除空行
sed 's/\s\+/ /g' filename          # 将多个空格替换为单个空格

tr 字符转换
#

# 字符替换
tr 'a-z' 'A-Z' < filename         # 小写转大写
tr 'A-Z' 'a-z' < filename         # 大写转小写
tr ' ' '_' < filename              # 空格替换为下划线

# 字符删除
tr -d '0-9' < filename             # 删除所有数字
tr -d ' \t' < filename             # 删除空格和制表符
tr -d '\n' < filename              # 删除换行符

# 字符压缩
tr -s ' ' < filename               # 压缩连续空格为单个空格
tr -s '\n' < filename              # 压缩连续换行符

# 实用示例
echo "Hello World" | tr ' ' '\n'   # 将空格替换为换行符
cat /dev/urandom | tr -dc 'a-zA-Z0-9' | head -c 32  # 生成32位随机字符串

文本分析和统计
#

awk 文本处理
#

# 基础用法
awk '{print $1}' filename          # 打印第一列
awk '{print $1, $3}' filename      # 打印第一和第三列
awk '{print NF}' filename          # 打印每行的字段数
awk '{print NR, $0}' filename      # 打印行号和内容

# 条件处理
awk '$3 > 100' filename            # 打印第三列大于100的行
awk '/pattern/' filename           # 打印包含模式的行
awk '$1 == "root"' /etc/passwd     # 打印第一列等于root的行

# 计算统计
awk '{sum += $1} END {print sum}' filename     # 计算第一列的总和
awk '{sum += $1; count++} END {print sum/count}' filename  # 计算平均值
awk '{if($1 > max) max=$1} END {print max}' filename       # 找最大值

# 格式化输出
awk '{printf "%-10s %5d\n", $1, $2}' filename  # 格式化打印
awk 'BEGIN{print "Name\tScore"} {print $1"\t"$2}' filename  # 添加表头

# 实用示例
ps aux | awk '{sum += $6} END {print "Total Memory:", sum/1024, "MB"}'  # 计算内存使用
awk -F: '{print $1}' /etc/passwd | sort  # 提取用户名并排序

wc 统计命令
#

# 基础统计
wc filename                # 显示行数、单词数、字符数
wc -l filename             # 只显示行数
wc -w filename             # 只显示单词数
wc -c filename             # 只显示字符数
wc -m filename             # 显示字符数(多字节字符)

# 批量统计
wc *.txt                   # 统计所有txt文件
find . -name "*.log" | xargs wc -l  # 统计所有log文件行数

# 实用示例
ps aux | wc -l             # 统计进程数
cat /etc/passwd | wc -l    # 统计用户数
ls -1 | wc -l              # 统计文件数

文件查找和搜索
#

find 命令详解
#

基础查找
#

# 按名称查找
find /path -name "filename"        # 精确匹配文件名
find /path -name "*.txt"           # 通配符匹配
find /path -iname "*.TXT"          # 忽略大小写匹配
find /path -name "*log*"           # 包含log的文件

# 按类型查找
find /path -type f                 # 查找普通文件
find /path -type d                 # 查找目录
find /path -type l                 # 查找符号链接
find /path -type b                 # 查找块设备
find /path -type c                 # 查找字符设备

# 按大小查找
find /path -size +100M             # 大于100MB的文件
find /path -size -1k               # 小于1KB的文件
find /path -size 50c               # 等于50字节的文件
find /path -empty                  # 空文件或空目录

按时间查找
#

# 按修改时间查找
find /path -mtime +7               # 7天前修改的文件
find /path -mtime -1               # 1天内修改的文件
find /path -mtime 0                # 今天修改的文件

# 按访问时间查找
find /path -atime +30              # 30天前访问的文件
find /path -atime -7               # 7天内访问的文件

# 按状态改变时间查找
find /path -ctime +1               # 1天前状态改变的文件

# 按分钟查找
find /path -mmin +60               # 60分钟前修改的文件
find /path -mmin -30               # 30分钟内修改的文件

# 时间范围查找
find /path -newermt "2023-01-01" ! -newermt "2023-12-31"  # 指定时间范围

按权限和所有者查找
#

# 按权限查找
find /path -perm 755               # 权限等于755的文件
find /path -perm -644              # 至少有644权限的文件
find /path -perm /u+w              # 用户有写权限的文件

# 按所有者查找
find /path -user username          # 属于指定用户的文件
find /path -group groupname        # 属于指定组的文件
find /path -uid 1000               # UID为1000的文件
find /path -gid 100                # GID为100的文件
find /path -nouser                 # 没有有效用户的文件
find /path -nogroup                # 没有有效组的文件

高级查找和操作
#

# 逻辑操作
find /path -name "*.txt" -and -size +1M     # 同时满足两个条件
find /path -name "*.log" -or -name "*.txt"  # 满足任一条件
find /path ! -name "*.tmp"                  # 不匹配条件

# 执行操作
find /path -name "*.tmp" -delete            # 删除找到的文件
find /path -name "*.txt" -exec ls -l {} \;  # 对每个文件执行命令
find /path -name "*.log" -exec rm {} \;     # 删除找到的文件
find /path -name "*.txt" -exec grep "pattern" {} \;  # 在找到的文件中搜索

# 批量操作
find /path -name "*.txt" -print0 | xargs -0 rm     # 安全删除(处理空格)
find /path -name "*.log" | xargs grep "ERROR"      # 在多个文件中搜索
find /path -type f -name "*.sh" -exec chmod +x {} \;  # 批量添加执行权限

# 实用示例
find /var/log -name "*.log" -mtime +30 -delete     # 删除30天前的日志
find /home -name "core" -type f -delete            # 删除core文件
find . -name "*.c" -exec wc -l {} \; | awk '{sum+=$1} END {print sum}'  # 统计C文件总行数

locate 快速查找
#

# 基础使用
locate filename                    # 快速查找文件
locate "*.conf"                    # 查找配置文件
locate -i filename                 # 忽略大小写查找
locate -c filename                 # 只显示匹配数量

# 更新数据库
updatedb                           # 更新locate数据库(需要root权限)

# 限制搜索
locate -l 10 filename              # 限制显示10个结果
locate -r "pattern"                # 使用正则表达式

# 实用示例
locate passwd | grep etc           # 查找/etc下的passwd文件
locate bin/python                  # 查找python可执行文件

which 和 whereis 命令
#

# which - 查找可执行文件路径
which python                       # 查找python命令路径
which -a python                    # 显示所有匹配的路径

# whereis - 查找二进制文件、源码和手册页
whereis python                     # 查找python相关文件
whereis -b python                  # 只查找二进制文件
whereis -m python                  # 只查找手册页
whereis -s python                  # 只查找源码

# type - 显示命令类型
type python                        # 显示python是什么类型的命令
type -a python                     # 显示所有匹配项
type -t python                     # 只显示类型

高级文件操作
#

文件比较和差异
#

diff 命令
#

# 基础比较
diff file1 file2                   # 比较两个文件
diff -u file1 file2                # 统一格式输出
diff -c file1 file2                # 上下文格式输出
diff -y file1 file2                # 并排显示差异

# 目录比较
diff -r dir1 dir2                  # 递归比较目录
diff -r --brief dir1 dir2          # 只显示不同的文件名

# 忽略差异
diff -w file1 file2                # 忽略空白字符差异
diff -i file1 file2                # 忽略大小写差异
diff -B file1 file2                # 忽略空行

# 生成补丁
diff -u original.txt modified.txt > changes.patch  # 生成补丁文件
patch original.txt < changes.patch                 # 应用补丁

comm 命令
#

# 比较已排序的文件
comm file1 file2                   # 显示三列:仅在file1、仅在file2、共同行
comm -1 file1 file2                # 不显示仅在file1中的行
comm -2 file1 file2                # 不显示仅在file2中的行
comm -3 file1 file2                # 不显示共同行
comm -12 file1 file2               # 只显示共同行

# 实用示例
comm -23 <(sort file1) <(sort file2)  # 显示file1独有的行

文件监控
#

watch 命令
#

# 实时监控
watch ls -la                       # 每2秒执行一次ls命令
watch -n 1 df -h                   # 每1秒监控磁盘使用
watch -d 'ps aux | grep apache'    # 高亮显示变化

# 监控文件变化
watch -d -n 1 'ls -la /path'       # 监控目录变化
watch 'tail -n 20 /var/log/messages'  # 监控日志文件

inotify 文件系统监控
#

# 安装 inotify-tools
yum install -y inotify-tools        # CentOS/RHEL
apt-get install -y inotify-tools    # Ubuntu/Debian

# 监控文件变化
inotifywait -m /path/to/file        # 持续监控文件
inotifywait -r -m /path/to/dir      # 递归监控目录
inotifywait -e modify,create,delete /path  # 监控特定事件

# 实用脚本
#!/bin/bash
inotifywait -m -r -e modify,create,delete /var/www/html |
while read path action file; do
    echo "File $file in $path was $action at $(date)"
done

系统管理和监控
#

进程管理
#

进程查看和分析
#

# 基础进程查看
ps aux                             # 查看所有进程(BSD格式)
ps -ef                             # 查看所有进程(System V格式)
ps -eo pid,ppid,cmd,%mem,%cpu --sort=-%cpu  # 自定义格式显示
ps -C process_name                 # 查看特定名称的进程
ps -u username                     # 查看特定用户的进程

# 进程树显示
pstree                             # 显示进程树
pstree -p                          # 显示进程树和PID
pstree username                    # 显示特定用户的进程树

# 进程搜索
pgrep process_name                 # 查找进程PID
pgrep -f "full_command"            # 根据完整命令行查找
pgrep -u username                  # 查找特定用户的进程
pidof process_name                 # 查找进程PID(另一种方法)

# 进程详细信息
cat /proc/PID/status               # 查看进程详细状态
cat /proc/PID/cmdline              # 查看进程启动命令
cat /proc/PID/environ              # 查看进程环境变量
ls -la /proc/PID/fd/               # 查看进程打开的文件描述符

进程控制和信号
#

# 进程终止
kill PID                           # 发送TERM信号终止进程
kill -9 PID                        # 发送KILL信号强制终止进程
kill -STOP PID                     # 暂停进程
kill -CONT PID                     # 继续进程
killall process_name               # 杀死所有同名进程
pkill process_name                 # 根据进程名杀死进程
pkill -f "pattern"                 # 根据命令行模式杀死进程

# 信号类型
kill -l                            # 列出所有信号
kill -HUP PID                      # 重新加载配置(常用于服务)
kill -USR1 PID                     # 用户自定义信号1
kill -USR2 PID                     # 用户自定义信号2

# 批量进程管理
pkill -u username                  # 杀死特定用户的所有进程
killall -u username                # 杀死特定用户的所有进程

后台进程和任务管理
#

# 后台运行
command &                          # 在后台运行命令
nohup command &                    # 后台运行,忽略挂起信号
nohup command > output.log 2>&1 &  # 后台运行并重定向输出

# 任务管理
jobs                               # 查看当前shell的后台任务
jobs -l                            # 显示任务的PID
bg %1                              # 将任务1放到后台继续运行
fg %1                              # 将任务1调到前台
disown %1                          # 从当前shell中移除任务1
disown -a                          # 移除所有任务

# 进程优先级
nice -n 10 command                 # 以较低优先级运行命令
renice 5 PID                       # 调整进程优先级
ionice -c 3 PID                    # 设置IO优先级为idle

系统监控
#

实时监控工具
#

# top 系列
top                                # 实时显示进程状态
top -u username                    # 只显示特定用户的进程
top -p PID1,PID2                   # 只监控特定进程
htop                               # 更友好的top(需安装)

# 系统资源监控
vmstat 1                           # 每秒显示系统统计信息
vmstat 1 10                        # 每秒显示,共10次
iostat 1                           # 每秒显示IO统计
sar -u 1 10                        # 每秒显示CPU使用率,共10次
sar -r 1 10                        # 每秒显示内存使用率

# 网络监控
iftop                              # 实时网络流量监控(需安装)
nethogs                            # 按进程显示网络使用(需安装)
ss -tuln                           # 显示网络连接状态
netstat -tuln                      # 显示网络连接状态(传统命令)

# 磁盘IO监控
iotop                              # 实时显示磁盘IO(需安装)
iotop -o                           # 只显示有IO活动的进程

系统信息查看
#

# 基本系统信息
uname -a                           # 显示系统所有信息
hostname                           # 显示主机名
hostnamectl                        # 显示主机名详细信息(systemd系统)
uptime                             # 显示系统运行时间和负载
who                                # 显示当前登录用户
w                                  # 显示登录用户及其活动
last                               # 显示最近登录记录
lastlog                            # 显示所有用户最后登录时间

# 用户和权限信息
id                                 # 显示当前用户和组ID
whoami                             # 显示当前用户名
groups                             # 显示当前用户所属组
su - username                      # 切换用户
sudo command                       # 以管理员权限执行命令

硬件信息查看
#

# CPU信息
lscpu                              # 显示CPU详细信息
cat /proc/cpuinfo                  # 查看CPU信息
nproc                              # 显示CPU核心数

# 内存信息
free -h                            # 显示内存使用情况(人类可读)
free -m                            # 以MB为单位显示内存
cat /proc/meminfo                  # 详细内存信息
vmstat -s                          # 内存统计信息

# 磁盘信息
df -h                              # 显示磁盘使用情况
df -i                              # 显示inode使用情况
du -sh /path                       # 显示目录大小
lsblk                              # 显示块设备信息
fdisk -l                           # 显示磁盘分区信息(需root)
blkid                              # 显示块设备UUID

# 硬件设备信息
lsusb                              # 显示USB设备
lspci                              # 显示PCI设备
lshw                               # 显示硬件详细信息(需安装)
dmidecode                          # 显示DMI/SMBIOS信息(需root)

系统服务管理
#

systemd 服务管理
#

# 服务状态查看
systemctl status service_name      # 查看服务状态
systemctl is-active service_name   # 检查服务是否运行
systemctl is-enabled service_name  # 检查服务是否开机启动
systemctl list-units --type=service # 列出所有服务

# 服务控制
systemctl start service_name       # 启动服务
systemctl stop service_name        # 停止服务
systemctl restart service_name     # 重启服务
systemctl reload service_name      # 重新加载配置
systemctl enable service_name      # 设置开机启动
systemctl disable service_name     # 取消开机启动

# 服务日志
journalctl -u service_name         # 查看服务日志
journalctl -u service_name -f      # 实时查看服务日志
journalctl -u service_name --since "1 hour ago"  # 查看最近1小时的日志

传统服务管理(SysV)
#

# service 命令
service service_name status        # 查看服务状态
service service_name start         # 启动服务
service service_name stop          # 停止服务
service service_name restart       # 重启服务

# chkconfig 命令
chkconfig --list                   # 列出所有服务
chkconfig service_name on          # 设置开机启动
chkconfig service_name off         # 取消开机启动

编辑器和开发工具
#

Vim 编辑器
#

Vim 基础操作
#

# 启动 Vim
vim filename                       # 打开文件
vim +n filename                    # 打开文件并跳转到第n行
vim +/pattern filename             # 打开文件并搜索模式
vim file1 file2                    # 打开多个文件
vim -r filename                    # 恢复异常关闭的文件
vim -O file1 file2                 # 垂直分屏打开
vim -o file1 file2                 # 水平分屏打开

# 模式切换
i                                  # 进入插入模式(光标前)
a                                  # 进入插入模式(光标后)
o                                  # 新建行并进入插入模式
ESC                                # 退出到普通模式
:                                  # 进入命令模式
v                                  # 进入可视模式
V                                  # 进入行可视模式
Ctrl+v                             # 进入块可视模式

移动和导航
#

# 基础移动
h, j, k, l                         # 左、下、上、右
w                                  # 下一个单词开头
b                                  # 上一个单词开头
e                                  # 当前单词结尾
0                                  # 行首
^                                  # 行首第一个非空字符
$                                  # 行尾
gg                                 # 文件开头
G                                  # 文件结尾
nG                                 # 跳转到第n行

# 翻页
Ctrl+f                             # 向下翻页
Ctrl+b                             # 向上翻页
Ctrl+d                             # 向下翻半页
Ctrl+u                             # 向上翻半页

# 搜索和跳转
/pattern                           # 向下搜索
?pattern                           # 向上搜索
n                                  # 下一个匹配
N                                  # 上一个匹配
*                                  # 搜索当前光标下的单词
#                                  # 反向搜索当前光标下的单词

编辑操作
#

# 删除
x                                  # 删除当前字符
dd                                 # 删除当前行
ndd                                # 删除n行
dw                                 # 删除单词
d$                                 # 删除到行尾
d0                                 # 删除到行首

# 复制和粘贴
yy                                 # 复制当前行
nyy                                # 复制n行
yw                                 # 复制单词
y$                                 # 复制到行尾
p                                  # 粘贴到光标后
P                                  # 粘贴到光标前

# 替换
r                                  # 替换单个字符
R                                  # 进入替换模式
:%s/old/new/g                      # 全文替换
:%s/old/new/gc                     # 全文替换(确认)
:n,ms/old/new/g                    # 在n到m行之间替换

# 撤销和重做
u                                  # 撤销
Ctrl+r                             # 重做

Vim 配置
#

# 基础配置(~/.vimrc)
set number                         # 显示行号
set relativenumber                 # 显示相对行号
set tabstop=4                      # Tab宽度
set shiftwidth=4                   # 缩进宽度
set expandtab                      # Tab转空格
set autoindent                     # 自动缩进
set smartindent                    # 智能缩进
set hlsearch                       # 高亮搜索结果
set incsearch                      # 增量搜索
set ignorecase                     # 忽略大小写
set smartcase                      # 智能大小写
set wrap                           # 自动换行
set ruler                          # 显示光标位置
set showcmd                        # 显示命令
set wildmenu                       # 命令行补全
set clipboard=unnamed              # 使用系统剪贴板

# 高级配置
syntax on                          # 语法高亮
filetype plugin indent on         # 文件类型检测
set background=dark                # 深色背景
colorscheme desert                 # 颜色主题
set mouse=a                        # 启用鼠标
set encoding=utf-8                 # 编码设置

分屏和标签
#

# 分屏操作
:sp filename                       # 水平分屏
:vs filename                       # 垂直分屏
Ctrl+w w                           # 切换窗口
Ctrl+w h/j/k/l                     # 移动到指定方向窗口
Ctrl+w +/-                         # 调整窗口高度
Ctrl+w >/<                         # 调整窗口宽度
Ctrl+w =                           # 平均分配窗口大小
:q                                 # 关闭当前窗口

# 标签页操作
:tabnew filename                   # 新建标签页
:tabn                              # 下一个标签页
:tabp                              # 上一个标签页
:tabclose                          # 关闭标签页
gt                                 # 下一个标签页(普通模式)
gT                                 # 上一个标签页(普通模式)

文件压缩和归档
#

tar 归档工具
#

基础 tar 操作
#

# 创建归档
tar -cvf archive.tar files/        # 创建tar归档
tar -czf archive.tar.gz files/     # 创建gzip压缩归档
tar -cjf archive.tar.bz2 files/    # 创建bzip2压缩归档
tar -cJf archive.tar.xz files/     # 创建xz压缩归档

# 解压归档
tar -xvf archive.tar               # 解压tar归档
tar -xzf archive.tar.gz            # 解压gzip归档
tar -xjf archive.tar.bz2           # 解压bzip2归档
tar -xJf archive.tar.xz            # 解压xz归档

# 查看归档内容
tar -tvf archive.tar               # 查看tar归档内容
tar -tzf archive.tar.gz            # 查看gzip归档内容
tar -tjf archive.tar.bz2           # 查看bzip2归档内容
tar -tJf archive.tar.xz            # 查看xz归档内容

高级 tar 操作
#

# 指定目录操作
tar -xvf archive.tar -C /target/   # 解压到指定目录
tar -czf backup.tar.gz -C /source/ .  # 从指定目录创建归档

# 排除文件和目录
tar -czf archive.tar.gz --exclude='*.log' files/     # 排除特定文件
tar -czf archive.tar.gz --exclude-from=exclude.txt files/  # 从文件读取排除列表
tar --exclude=/home/user --exclude=*.tmp -czf backup.tar.gz /home/*  # 多重排除

# 时间过滤
tar -N "2023-01-01" -czf new-files.tar.gz /data/     # 只备份指定日期后的文件

# 增量备份
tar -czf backup.tar.gz --listed-incremental=snapshot.file /data/

# 归档操作
tar -rvf archive.tar newfile.txt                     # 向归档添加文件
tar --delete -f archive.tar unwanted.txt             # 从归档删除文件

# 网络传输
tar -czf - /data/ | ssh user@host 'tar -xzf - -C /backup/'  # 通过SSH传输

压缩工具
#

gzip/gunzip
#

# 压缩文件
gzip filename                      # 压缩文件(原文件被替换)
gzip -k filename                   # 压缩文件(保留原文件)
gzip -9 filename                   # 最大压缩比
gzip -1 filename                   # 最快压缩
gzip -r directory/                 # 递归压缩目录中的文件

# 解压文件
gunzip filename.gz                 # 解压文件
gzip -d filename.gz                # 解压文件(另一种方法)
gzip -dr directory/                # 递归解压目录

# 查看压缩文件
zcat filename.gz                   # 查看压缩文件内容(不解压)
zgrep "pattern" filename.gz        # 在压缩文件中搜索
zless filename.gz                  # 分页查看压缩文件

bzip2/bunzip2
#

# 压缩文件
bzip2 filename                     # 压缩文件
bzip2 -k filename                  # 压缩文件(保留原文件)
bzip2 -9 filename                  # 最大压缩比

# 解压文件
bunzip2 filename.bz2               # 解压文件
bzip2 -d filename.bz2              # 解压文件(另一种方法)

# 查看压缩文件
bzcat filename.bz2                 # 查看压缩文件内容
bzgrep "pattern" filename.bz2      # 在压缩文件中搜索

ZIP 压缩
#

# 创建ZIP文件
zip archive.zip file1 file2        # 压缩文件
zip -r archive.zip directory/      # 递归压缩目录
zip -9 archive.zip files/          # 最大压缩比
zip -0 archive.zip files/          # 仅存储(不压缩)

# 解压ZIP文件
unzip archive.zip                  # 解压到当前目录
unzip archive.zip -d /target/      # 解压到指定目录
unzip -l archive.zip               # 列出ZIP文件内容
unzip -t archive.zip               # 测试ZIP文件完整性

# 高级ZIP操作
zip -u archive.zip newfile.txt     # 更新ZIP文件
zip -d archive.zip unwanted.txt    # 从ZIP删除文件
zip -x "*.log" -r archive.zip dir/ # 排除特定文件
unzip -j archive.zip               # 解压时忽略目录结构

其他压缩格式
#

RAR(需要安装)
#

# 压缩RAR
rar a archive.rar files/           # 创建RAR归档
rar a -m5 archive.rar files/       # 最大压缩比

# 解压RAR
unrar x archive.rar                # 解压RAR文件
unrar l archive.rar                # 列出RAR文件内容
unrar t archive.rar                # 测试RAR文件

Shell 脚本编程
#

控制结构
#

条件判断
#

# if 语句
if [ condition ]; then
    commands
elif [ condition2 ]; then
    commands
else
    commands
fi

# 条件测试
[ -f file ]                        # 文件存在且为普通文件
[ -d directory ]                   # 目录存在
[ -e path ]                        # 路径存在
[ -r file ]                        # 文件可读
[ -w file ]                        # 文件可写
[ -x file ]                        # 文件可执行
[ -s file ]                        # 文件非空
[ file1 -nt file2 ]                # file1 比 file2 新
[ file1 -ot file2 ]                # file1 比 file2 旧

# 字符串比较
[ "$str1" = "$str2" ]              # 字符串相等
[ "$str1" != "$str2" ]             # 字符串不等
[ -z "$str" ]                      # 字符串为空
[ -n "$str" ]                      # 字符串非空

# 数值比较
[ $num1 -eq $num2 ]                # 等于
[ $num1 -ne $num2 ]                # 不等于
[ $num1 -lt $num2 ]                # 小于
[ $num1 -le $num2 ]                # 小于等于
[ $num1 -gt $num2 ]                # 大于
[ $num1 -ge $num2 ]                # 大于等于

# 逻辑操作
[ condition1 ] && [ condition2 ]   # 逻辑与
[ condition1 ] || [ condition2 ]   # 逻辑或
[ ! condition ]                    # 逻辑非

循环结构
#

# for 循环
for var in list; do
    commands
done

# for 循环示例
for file in *.txt; do
    echo "Processing $file"
done

for i in {1..10}; do
    echo "Number: $i"
done

for ((i=1; i<=10; i++)); do
    echo "Counter: $i"
done

# while 循环
while [ condition ]; do
    commands
done

# while 循环示例
counter=1
while [ $counter -le 5 ]; do
    echo "Count: $counter"
    ((counter++))
done

# until 循环
until [ condition ]; do
    commands
done

# 读取文件行
while IFS= read -r line; do
    echo "Line: $line"
done < filename

case 语句
#

case $variable in
    pattern1)
        commands
        ;;
    pattern2|pattern3)
        commands
        ;;
    *)
        default commands
        ;;
esac

# case 示例
case $1 in
    start)
        echo "Starting service..."
        ;;
    stop)
        echo "Stopping service..."
        ;;
    restart)
        echo "Restarting service..."
        ;;
    *)
        echo "Usage: $0 {start|stop|restart}"
        exit 1
        ;;
esac

函数
#

函数定义和调用
#

# 函数定义方式1
function_name() {
    commands
    return value
}

# 函数定义方式2
function function_name {
    commands
    return value
}

# 函数调用
function_name arg1 arg2

# 函数示例
backup_file() {
    local file=$1
    local backup_dir=${2:-/backup}

    if [ -f "$file" ]; then
        cp "$file" "$backup_dir/$(basename $file).bak"
        echo "Backup created: $backup_dir/$(basename $file).bak"
    else
        echo "Error: File $file not found"
        return 1
    fi
}

# 调用函数
backup_file "/etc/passwd" "/tmp"

函数参数和返回值
#

# 函数参数
function example() {
    echo "Function name: $0"
    echo "First argument: $1"
    echo "Second argument: $2"
    echo "All arguments: $@"
    echo "Number of arguments: $#"

    local local_var="local value"
    global_var="global value"

    return 0
}

# 获取函数返回值
example arg1 arg2
result=$?
echo "Function returned: $result"

高级特性
#

数组
#

# 数组定义
array=(element1 element2 element3)
declare -a array
array[0]="first"
array[1]="second"

# 数组操作
echo ${array[0]}                   # 访问元素
echo ${array[@]}                   # 所有元素
echo ${#array[@]}                  # 数组长度
echo ${!array[@]}                  # 所有索引

# 数组遍历
for element in "${array[@]}"; do
    echo $element
done

for index in "${!array[@]}"; do
    echo "Index: $index, Value: ${array[$index]}"
done

# 关联数组(Bash 4.0+)
declare -A assoc_array
assoc_array["key1"]="value1"
assoc_array["key2"]="value2"

for key in "${!assoc_array[@]}"; do
    echo "Key: $key, Value: ${assoc_array[$key]}"
done

字符串处理
#

string="Hello World"

# 字符串长度
echo ${#string}

# 字符串截取
echo ${string:0:5}                 # 从位置0开始,长度5
echo ${string:6}                   # 从位置6到结尾
echo ${string: -5}                 # 最后5个字符

# 字符串替换
echo ${string/World/Universe}      # 替换第一个匹配
echo ${string//o/O}                # 替换所有匹配

# 字符串删除
echo ${string#Hello }              # 删除开头匹配
echo ${string%World}               # 删除结尾匹配

# 大小写转换
echo ${string^^}                   # 转大写
echo ${string,,}                   # 转小写

权限和安全
#

文件权限管理
#

基础权限
#

# 查看权限
ls -l filename                     # 查看文件权限
ls -ld directory                   # 查看目录权限

# 修改权限
chmod 755 filename                 # 数字方式设置权限
chmod u+x filename                 # 符号方式添加权限
chmod g-w filename                 # 符号方式移除权限
chmod o=r filename                 # 符号方式设置权限

# 递归修改权限
chmod -R 755 directory             # 递归修改目录权限
find /path -type f -exec chmod 644 {} \;  # 只修改文件权限
find /path -type d -exec chmod 755 {} \;  # 只修改目录权限

# 修改所有者
chown user:group filename          # 修改用户和组
chown user filename                # 只修改用户
chgrp group filename               # 只修改组
chown -R user:group directory      # 递归修改

ACL 权限控制
#

# 查看 ACL 权限
getfacl filename                   # 查看文件 ACL 权限
getfacl directory                  # 查看目录 ACL 权限

# 设置 ACL 权限
setfacl -m u:username:rw filename  # 给用户添加读写权限
setfacl -m g:groupname:r filename  # 给组添加读权限
setfacl -m o::--- filename         # 设置其他用户权限

# 递归设置 ACL
setfacl -R -m u:username:rw directory  # 递归设置权限

# 删除 ACL 权限
setfacl -x u:username filename     # 删除用户的 ACL 权限
setfacl -b filename                # 删除所有 ACL 权限

# 默认 ACL(对目录)
setfacl -d -m u:username:rw directory  # 设置默认 ACL

# 从文件恢复 ACL
getfacl file1 | setfacl --set-file=- file2  # 复制 ACL 权限

实用脚本示例
#

系统监控脚本
#

系统资源监控
#

#!/bin/bash
# 系统资源监控脚本

# 设置阈值
CPU_THRESHOLD=80
MEMORY_THRESHOLD=85
DISK_THRESHOLD=90

# 获取系统信息
get_cpu_usage() {
    top -bn1 | grep "Cpu(s)" | awk '{print $2}' | awk -F'%' '{print $1}'
}

get_memory_usage() {
    free | grep Mem | awk '{printf("%.1f"), $3/$2 * 100.0}'
}

get_disk_usage() {
    df -h | awk '$NF=="/"{printf "%d", $5}'
}

# 发送告警
send_alert() {
    local message="$1"
    echo "$(date): $message" >> /var/log/system-monitor.log
    # 可以添加邮件或其他通知方式
    # echo "$message" | mail -s "System Alert" admin@example.com
}

# 主监控逻辑
main() {
    cpu_usage=$(get_cpu_usage)
    memory_usage=$(get_memory_usage)
    disk_usage=$(get_disk_usage)

    echo "=== System Monitor Report $(date) ==="
    echo "CPU Usage: ${cpu_usage}%"
    echo "Memory Usage: ${memory_usage}%"
    echo "Disk Usage: ${disk_usage}%"

    # 检查阈值
    if (( $(echo "$cpu_usage > $CPU_THRESHOLD" | bc -l) )); then
        send_alert "High CPU usage: ${cpu_usage}%"
    fi

    if (( $(echo "$memory_usage > $MEMORY_THRESHOLD" | bc -l) )); then
        send_alert "High memory usage: ${memory_usage}%"
    fi

    if [ "$disk_usage" -gt "$DISK_THRESHOLD" ]; then
        send_alert "High disk usage: ${disk_usage}%"
    fi
}

main "$@"

日志清理脚本
#

#!/bin/bash
# 日志清理脚本

LOG_DIRS=("/var/log" "/opt/app/logs" "/home/user/logs")
RETENTION_DAYS=30
DRY_RUN=false

# 解析命令行参数
while [[ $# -gt 0 ]]; do
    case $1 in
        --dry-run)
            DRY_RUN=true
            shift
            ;;
        --days)
            RETENTION_DAYS="$2"
            shift 2
            ;;
        *)
            echo "Unknown option: $1"
            exit 1
            ;;
    esac
done

# 清理函数
cleanup_logs() {
    local dir="$1"
    local days="$2"

    if [ ! -d "$dir" ]; then
        echo "Directory $dir does not exist"
        return 1
    fi

    echo "Cleaning logs in $dir older than $days days..."

    if [ "$DRY_RUN" = true ]; then
        find "$dir" -name "*.log" -type f -mtime +$days -print
        find "$dir" -name "*.log.*" -type f -mtime +$days -print
    else
        find "$dir" -name "*.log" -type f -mtime +$days -delete
        find "$dir" -name "*.log.*" -type f -mtime +$days -delete
    fi
}

# 主函数
main() {
    echo "Starting log cleanup..."
    echo "Retention period: $RETENTION_DAYS days"
    echo "Dry run: $DRY_RUN"

    for dir in "${LOG_DIRS[@]}"; do
        cleanup_logs "$dir" "$RETENTION_DAYS"
    done

    echo "Log cleanup completed"
}

main

备份脚本
#

数据库备份脚本
#

#!/bin/bash
# MySQL 数据库备份脚本

# 配置
DB_HOST="localhost"
DB_USER="backup_user"
DB_PASS="backup_password"
BACKUP_DIR="/backup/mysql"
RETENTION_DAYS=7

# 创建备份目录
mkdir -p "$BACKUP_DIR"

# 获取所有数据库
databases=$(mysql -h "$DB_HOST" -u "$DB_USER" -p"$DB_PASS" -e "SHOW DATABASES;" | grep -Ev "(Database|information_schema|performance_schema|mysql|sys)")

# 备份每个数据库
for db in $databases; do
    echo "Backing up database: $db"

    backup_file="$BACKUP_DIR/${db}_$(date +%Y%m%d_%H%M%S).sql"

    mysqldump -h "$DB_HOST" -u "$DB_USER" -p"$DB_PASS" \
              --single-transaction \
              --routines \
              --triggers \
              "$db" > "$backup_file"

    if [ $? -eq 0 ]; then
        echo "Backup successful: $backup_file"
        gzip "$backup_file"
    else
        echo "Backup failed for database: $db"
    fi
done

# 清理旧备份
find "$BACKUP_DIR" -name "*.sql.gz" -mtime +$RETENTION_DAYS -delete

echo "Database backup completed"

最佳实践和技巧
#

脚本编写规范
#

脚本模板
#

#!/bin/bash
#
# Script Name: script_name.sh
# Description: Brief description of what this script does
# Author: Your Name
# Date: YYYY-MM-DD
# Version: 1.0
#
# Usage: ./script_name.sh [options] [arguments]
#
# Examples:
#   ./script_name.sh --help
#   ./script_name.sh --verbose file.txt
#

# 设置严格模式
set -euo pipefail

# 全局变量
readonly SCRIPT_NAME=$(basename "$0")
readonly SCRIPT_DIR=$(cd "$(dirname "${BASH_SOURCE[0]}")" && pwd)
readonly LOG_FILE="/var/log/${SCRIPT_NAME%.sh}.log"

# 默认配置
VERBOSE=false
DRY_RUN=false

# 日志函数
log() {
    echo "[$(date +'%Y-%m-%d %H:%M:%S')] $*" | tee -a "$LOG_FILE"
}

error() {
    echo "[ERROR] $*" >&2
    exit 1
}

# 帮助信息
usage() {
    cat << EOF
Usage: $SCRIPT_NAME [OPTIONS] [ARGUMENTS]

Description:
    Brief description of the script functionality.

Options:
    -h, --help      Show this help message
    -v, --verbose   Enable verbose output
    -n, --dry-run   Show what would be done without executing

Examples:
    $SCRIPT_NAME --help
    $SCRIPT_NAME --verbose file.txt

EOF
}

# 参数解析
parse_args() {
    while [[ $# -gt 0 ]]; do
        case $1 in
            -h|--help)
                usage
                exit 0
                ;;
            -v|--verbose)
                VERBOSE=true
                shift
                ;;
            -n|--dry-run)
                DRY_RUN=true
                shift
                ;;
            -*)
                error "Unknown option: $1"
                ;;
            *)
                # 位置参数
                break
                ;;
        esac
    done
}

# 主函数
main() {
    parse_args "$@"

    log "Script started"

    # 脚本主要逻辑

    log "Script completed"
}

# 清理函数
cleanup() {
    log "Cleaning up..."
    # 清理临时文件等
}

# 信号处理
trap cleanup EXIT
trap 'error "Script interrupted"' INT TERM

# 执行主函数
main "$@"

调试和错误处理
#

调试技巧
#

# 启用调试模式
set -x                             # 显示执行的命令
set +x                             # 关闭调试模式

# 条件调试
if [ "$DEBUG" = "true" ]; then
    set -x
fi

# 函数调试
debug() {
    if [ "$VERBOSE" = "true" ]; then
        echo "[DEBUG] $*" >&2
    fi
}

# 错误处理
handle_error() {
    local exit_code=$?
    local line_number=$1
    echo "Error on line $line_number: exit code $exit_code" >&2
    exit $exit_code
}

trap 'handle_error $LINENO' ERR

输入验证
#

# 验证参数数量
if [ $# -lt 2 ]; then
    echo "Error: At least 2 arguments required"
    usage
    exit 1
fi

# 验证文件存在
validate_file() {
    local file="$1"
    if [ ! -f "$file" ]; then
        error "File not found: $file"
    fi
}

# 验证目录存在
validate_directory() {
    local dir="$1"
    if [ ! -d "$dir" ]; then
        error "Directory not found: $dir"
    fi
}

# 验证数字
validate_number() {
    local num="$1"
    if ! [[ "$num" =~ ^[0-9]+$ ]]; then
        error "Invalid number: $num"
    fi
}

# 验证邮箱格式
validate_email() {
    local email="$1"
    if ! [[ "$email" =~ ^[A-Za-z0-9._%+-]+@[A-Za-z0-9.-]+\.[A-Za-z]{2,}$ ]]; then
        error "Invalid email format: $email"
    fi
}

性能优化
#

高效的文本处理
#

# 使用内置命令替代外部命令
# 慢:
result=$(echo "$string" | cut -c1-5)
# 快:
result=${string:0:5}

# 避免不必要的子进程
# 慢:
count=$(cat file | wc -l)
# 快:
count=$(wc -l < file)

# 使用数组而不是多次调用
# 慢:
for file in $(find /path -name "*.txt"); do
    process "$file"
done
# 快:
mapfile -t files < <(find /path -name "*.txt")
for file in "${files[@]}"; do
    process "$file"
done

总结
#

核心要点
#

  1. 基础扎实: 掌握文件操作、文本处理、进程管理等基础技能
  2. 脚本规范: 遵循编码规范,编写可维护的脚本
  3. 错误处理: 实现完善的错误处理和日志记录
  4. 安全意识: 注意权限管理和输入验证
  5. 性能优化: 选择高效的实现方式

学习建议
#

  1. 循序渐进: 从基础命令开始,逐步学习高级特性
  2. 实践为主: 通过实际项目练习和应用
  3. 阅读源码: 学习优秀的开源脚本
  4. 持续改进: 不断优化和重构现有脚本

参考资源
#

通过掌握这些 Shell 技能,您将能够高效地进行系统管理、自动化运维和日常开发工作。记住,Shell 编程的精髓在于实践,多写多练才能真正掌握这门强大的工具。

git{

    git clone git@10.10.10.10:gittest.git  ./gittest/  # 克隆项目到指定目录
    git clone  -b develop --depth=1 http://git.a.com/d.git   # 克隆指定分支 克隆一层
    git status                                         # Show the working tree(工作树) status
    git log -n 1 --stat                                # 查看最后一次日志文件
    git branch -a                                      # 列出远程跟踪分支(remote-tracking branches)和本地分支
    git checkout developing                            # 切换到developing分支
    git checkout -b release                            # 切换分支没有从当前分支创建
    git checkout -b release origin/master              # 从远程分支创建本地镜像分支
    git push origin --delete release                   # 从远端删除分区,服务端有可能设置保护不允许删除
    git push origin release                            # 把本地分支提交到远程
    git pull                                           # 更新项目 需要cd到项目目录中
    git fetch -f -p                                    # 抓取远端代码但不合并到当前
    git reset --hard origin/master                     # 和远端同步分支
    git add .                                          # 更新所有文件
    git commit -m "gittest up"                         # 提交操作并添加备注
    git push                                           # 正式提交到远程git服务器
    git push [-u origin master]                        # 正式提交到远程git服务器(master分支)
    git tag [-a] dev-v-0.11.54 [-m 'fix #67']          # 创建tag,名为dev-v-0.11.54,备注fix #67
    git tag -l dev-v-0.11.54                           # 查看tag(dev-v-0.11.5)
    git push origin --tags                             # 提交tag
    git reset --hard                                   # 本地恢复整个项目
    git rm -r -n --cached  ./img                       # -n执行命令时,不会删除任何文件,而是展示此命令要删除的文件列表预览
    git rm -r --cached  ./img                          # 执行删除命令 需要commit和push让远程生效
    git init --bare smc-content-check.git              # 初始化新git项目  需要手动创建此目录并给git用户权限 chown -R git:git smc-content-check.git
    git config --global credential.helper store        # 记住密码
    git config [--global] user.name "your name"        # 设置你的用户名, 希望在一个特定的项目中使用不同的用户或e-mail地址, 不要--global选项
    git config [--global] user.email "your email"      # 设置你的e-mail地址, 每次Git提交都会使用该信息
    git config [--global] user.name                    # 查看用户名
    git config [--global] user.email                   # 查看用户e-mail
    git config --global --edit                         # 编辑~/.gitconfig(User-specific)配置文件, 值优先级高于/etc/gitconfig(System-wide)
    git config --edit                                  # 编辑.git/config(Repository specific)配置文件, 值优先级高于~/.gitconfig
    git cherry-pick  <commit id>                       # 用于把另一个本地分支的commit修改应用到当前分支 需要push到远程
    git log --pretty=format:'%h: %s' 9378b62..HEAD     # 查看指定范围更新操作 commit id
    git config --global core.ignorecase false          # 设置全局大小写敏感
    git ls-remote --heads origin refs/heads/test       # 查看

    从远端拉一份新的{
        # You have not concluded your merge (MERGE_HEAD exists)  git拉取失败
        git fetch --hard origin/master
        git reset --hard origin/master
    }

    删除远程分支并新建{
        git checkout master
        git branch -r -d origin/test       # 删除远程分支  但有时候并没有删除 可以尝试使用下面的语句
        git push origin :test              # 推送一个空分支到远程分支,相当于删除远程分支
        git branch -d test                 # 删除本地test分支, -D 强制
        git branch -a |grep test
        git checkout -b test
        git push origin test

        git reset --hard origin/test 
    }

    迁移git项目{
        git branch -r | grep -v '\->' | while read remote; do git branch --track "${remote#origin/}" "$remote"; done
        git fetch --all
        git pull --all
        git remote set-url origin git@git.github.cn:server/gw.git
        git push --all
    }
}

恢复rm删除的文件{

    # debugfs针对 ext2   # ext3grep针对 ext3   # extundelete针对 ext4
    df -T   # 首先查看磁盘分区格式
    umount /data/     # 卸载挂载,数据丢失请首先卸载挂载,或重新挂载只读
    ext3grep /dev/sdb1 --ls --inode 2         # 记录信息继续查找目录下文件inode信息
    ext3grep /dev/sdb1 --ls --inode 131081    # 此处是inode
    ext3grep /dev/sdb1 --restore-inode 49153  # 记录下inode信息开始恢复目录

}

openssl{

    openssl rand 15 -base64            # 口令生成
    openssl sha1 filename              # 哈希算法校验文件
    openssl md5 filename               # MD5校验文件
    openssl base64   filename.txt      # base64编码/解码文件(发送邮件附件之类功能会可以使用)
    openssl base64 -d   filename.bin   # base64编码/解码二进制文件
    openssl enc -aes-128-cbc   filename.aes-128-cbc                  # 加密文档
    # 推荐使用的加密算法是bf(Blowfish)和-aes-128-cbc(运行在CBC模式的128位密匙AES加密算法),加密强度有保障
    openssl enc -d -aes-128-cbc -in filename.aes-128-cbc > filename  # 解密文档

}

}

2 软件{

rpm{

    rpm -ivh lynx          # rpm安装
    rpm -e lynx            # 卸载包
    rpm -e lynx --nodeps   # 强制卸载
    rpm -qa                # 查看所有安装的rpm包
    rpm -qa | grep lynx    # 查找包是否安装
    rpm -ql                # 软件包路径
    rpm -Uvh               # 升级包
    rpm --test lynx        # 测试
    rpm -qc                # 软件包配置文档
    rpm --initdb           # 初始化rpm 数据库
    rpm --rebuilddb        # 重建rpm数据库  在rpm和yum无响应的情况使用 先 rm -f /var/lib/rpm/__db.00* 在重建

}

yum{

    yum list                 # 所有软件列表
    yum install 包名          # 安装包和依赖包
    yum -y update            # 升级所有包版本,依赖关系,系统版本内核都升级
    yum -y update 软件包名    # 升级指定的软件包
    yum -y upgrade           # 不改变软件设置更新软件,系统版本升级,内核不改变
    yum search mail          # yum搜索相关包
    yum grouplist            # 软件包组
    yum -y groupinstall "Virtualization"   # 安装软件包组
    repoquery -ql gstreamer  # 不安装软件查看包含文件
    yum clean all            # 清除var下缓存

}

yum使用epel源{

    # 包下载地址: http://download.fedoraproject.org/pub/epel   # 选择版本5\6\7
    rpm -Uvh  http://mirrors.hustunique.com/epel//6/x86_64/epel-release-6-8.noarch.rpm

    # 自适配版本
    yum install epel-release

}

自定义yum源{

    find /etc/yum.repos.d -name "*.repo" -exec mv {} {}.bak \;

    vim /etc/yum.repos.d/yum.repo
    [yum]
    #http
    baseurl=http://10.0.0.1/centos5.5
    #挂载iso
    #mount -o loop CentOS-5.8-x86_64-bin-DVD-1of2.iso /data/iso/
    #本地
    #baseurl=file:///data/iso/
    enable=1

    #导入key
    rpm --import  /etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-5

}

编译{

    源码安装{

        ./configure --help                   # 查看所有编译参数
        ./configure  --prefix=/usr/local/    # 配置参数
        make                                 # 编译
        # make -j 8                          # 多线程编译,速度较快,但有些软件不支持
        make install                         # 安装包
        make clean                           # 清除编译结果

    }

    perl程序编译{

        perl Makefile.PL
        make
        make test
        make install

    }

    python程序编译{

        python file.py

        # 源码包编译安装
        python setup.py build
        python setup.py install

    }

    编译c程序{

        gcc -g hello.c -o hello

    }

}

}

3 系统{

wall                                          # 给其它用户发消息
whereis ls                                    # 搜索程序名,而且只搜索二进制文件
which                                         # 查找命令是否存在,及存放位置
locate                                        # 不是实时查找,查找的结果不精确,但查找速度很快 每天更新 /var/lib/locatedb
clear                                         # 清空整个屏幕
reset                                         # 重新初始化屏幕
cal                                           # 显示月历
echo -n 123456 | md5sum                       # md5加密
mkpasswd                                      # 随机生成密码   -l位数 -C大小 -c小写 -d数字 -s特殊字符
netstat -ntupl | grep port                    # 是否打开了某个端口
ntpdate cn.pool.ntp.org                       # 同步时间, pool.ntp.org: public ntp time server for everyone(http://www.pool.ntp.org/zh/)
tzselect                                      # 选择时区 #+8=(5 9 1 1) # (TZ='Asia/Shanghai'; export TZ)括号内写入 /etc/profile
/sbin/hwclock -w                              # 时间保存到硬件
/etc/shadow                                   # 账户影子文件
LANG=en                                       # 修改语言
vim /etc/sysconfig/i18n                       # 修改编码  LANG="en_US.UTF-8"
export LC_ALL=C                               # 强制字符集
vi /etc/hosts                                 # 查询静态主机名
alias                                         # 别名
watch uptime                                  # 监测命令动态刷新 监视
ipcs -a                                       # 查看Linux系统当前单个共享内存段的最大值
ldconfig                                      # 动态链接库管理命令
ldd `which cmd`                               # 查看命令的依赖库
dist-upgrade                                  # 会改变配置文件,改变旧的依赖关系,改变系统版本
/boot/grub/grub.conf                          # grub启动项配置
ps -mfL <PID>                                 # 查看指定进程启动的线程 线程数受 max user processes 限制
ps uxm |wc -l                                 # 查看当前用户占用的进程数 [包括线程]  max user processes
top -p  PID -H                                # 查看指定PID进程及线程
lsof |wc -l                                   # 查看当前文件句柄数使用数量  open files
lsof |grep /lib                               # 查看加载库文件
sysctl -a                                     # 查看当前所有系统内核参数
sysctl -p                                     # 修改内核参数/etc/sysctl.conf,让/etc/rc.d/rc.sysinit读取生效
strace -p pid                                 # 跟踪系统调用
ps -eo "%p %C  %z  %a"|sort -k3 -n            # 把进程按内存使用大小排序
strace uptime 2>&1|grep open                  # 查看命令打开的相关文件
grep Hugepagesize /proc/meminfo               # 内存分页大小
mkpasswd -l 8  -C 2 -c 2 -d 4 -s 0            # 随机生成指定类型密码
echo 1 > /proc/sys/net/ipv4/tcp_syncookies    # 使TCP SYN Cookie 保护生效  # "SYN Attack"是一种拒绝服务的攻击方式
grep Swap  /proc/25151/smaps |awk '{a+=$2}END{print a}'    # 查询某pid使用的swap大小
redir --lport=33060 --caddr=10.10.10.78 --cport=3306       # 端口映射 yum安装 用supervisor守护

开机启动脚本顺序{

    /etc/profile
    /etc/profile.d/*.sh
    ~/bash_profile
    ~/.bashrc
    /etc/bashrc

}

进程管理{

    ps -eaf               # 查看所有进程
    kill -9 PID           # 强制终止某个PID进程
    kill -15 PID          # 安全退出 需程序内部处理信号
    cmd &                 # 命令后台运行
    nohup cmd &           # 后台运行不受shell退出影响
    ctrl+z                # 将前台放入后台(暂停)
    jobs                  # 查看后台运行程序
    bg 2                  # 启动后台暂停进程
    fg 2                  # 调回后台进程
    pstree                # 进程树
    vmstat 1 9            # 每隔一秒报告系统性能信息9次
    sar                   # 查看cpu等状态
    lsof file             # 显示打开指定文件的所有进程
    lsof -i:32768         # 查看端口的进程
    renice +1 180         # 把180号进程的优先级加1
    exec sh a.sh          # 子进程替换原来程序的pid, 避免supervisor无法强制杀死进程

    ps{

        ps aux |grep -v USER | sort -nk +4 | tail       # 显示消耗内存最多的10个运行中的进程,以内存使用量排序.cpu +3
        # USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
        %CPU     # 进程的cpu占用率
        %MEM     # 进程的内存占用率
        VSZ      # 进程虚拟大小,单位K(即总占用内存大小,包括真实内存和虚拟内存)
        RSS      # 进程使用的驻留集大小即实际物理内存大小
        START    # 进程启动时间和日期
        占用的虚拟内存大小 = VSZ - RSS

        ps -eo pid,lstart,etime,args         # 查看进程启动时间

    }

    top{

        前五行是系统整体的统计信息。
        第一行: 任务队列信息,同 uptime 命令的执行结果。内容如下:
            01:06:48 当前时间
            up 1:22 系统运行时间,格式为时:分
            1 user 当前登录用户数
            load average: 0.06, 0.60, 0.48 系统负载,即任务队列的平均长度。
            三个数值分别为 1分钟、5分钟、15分钟前到现在的平均值。

        第二、三行:为进程和CPU的信息。当有多个CPU时,这些内容可能会超过两行。内容如下:
            Tasks: 29 total 进程总数
            1 running 正在运行的进程数
            28 sleeping 睡眠的进程数
            0 stopped 停止的进程数
            0 zombie 僵尸进程数
            Cpu(s): 0.3% us 用户空间占用CPU百分比
            1.0% sy 内核空间占用CPU百分比
            0.0% ni 用户进程空间内改变过优先级的进程占用CPU百分比
            98.7% id 空闲CPU百分比
            0.0% wa 等待输入输出的CPU时间百分比
            0.0% hi
            0.0% si

        第四、五行:为内存信息。内容如下:
            Mem: 191272k total 物理内存总量
            173656k used 使用的物理内存总量
            17616k free 空闲内存总量
            22052k buffers 用作内核缓存的内存量
            Swap: 192772k total 交换区总量
            0k used 使用的交换区总量
            192772k free 空闲交换区总量
            123988k cached 缓冲的交换区总量。
            内存中的内容被换出到交换区,而后又被换入到内存,但使用过的交换区尚未被覆盖,
            该数值即为这些内容已存在于内存中的交换区的大小。
            相应的内存再次被换出时可不必再对交换区写入。

        进程信息区,各列的含义如下:  # 显示各个进程的详细信息

        序号 列名    含义
        a   PID      进程id
        b   PPID     父进程id
        c   RUSER    Real user name
        d   UID      进程所有者的用户id
        e   USER     进程所有者的用户名
        f   GROUP    进程所有者的组名
        g   TTY      启动进程的终端名。不是从终端启动的进程则显示为 ?
        h   PR       优先级
        i   NI       nice值。负值表示高优先级,正值表示低优先级
        j   P        最后使用的CPU,仅在多CPU环境下有意义
        k   %CPU     上次更新到现在的CPU时间占用百分比
        l   TIME     进程使用的CPU时间总计,单位秒
        m   TIME+    进程使用的CPU时间总计,单位1/100秒
        n   %MEM     进程使用的物理内存百分比
        o   VIRT     进程使用的虚拟内存总量,单位kb。VIRT=SWAP+RES
        p   SWAP     进程使用的虚拟内存中,被换出的大小,单位kb。
        q   RES      进程使用的、未被换出的物理内存大小,单位kb。RES=CODE+DATA
        r   CODE     可执行代码占用的物理内存大小,单位kb
        s   DATA     可执行代码以外的部分(数据段+栈)占用的物理内存大小,单位kb
        t   SHR      共享内存大小,单位kb
        u   nFLT     页面错误次数
        v   nDRT     最后一次写入到现在,被修改过的页面数。
        w   S        进程状态。
            D=不可中断的睡眠状态
            R=运行
            S=睡眠
            T=跟踪/停止
            Z=僵尸进程 父进程在但并不等待子进程
        x   COMMAND  命令名/命令行
        y   WCHAN    若该进程在睡眠,则显示睡眠中的系统函数名
        z   Flags    任务标志,参考 sched.h

    }

    列出正在占用swap的进程{

        #!/bin/bash
        echo -e "PID\t\tSwap\t\tProc_Name"
        # 拿出/proc目录下所有以数字为名的目录(进程名是数字才是进程,其他如sys,net等存放的是其他信息)
        for pid in `ls -l /proc | grep ^d | awk '{ print $9 }'| grep -v [^0-9]`
        do
            # 让进程释放swap的方法只有一个:就是重启该进程。或者等其自动释放。放
            # 如果进程会自动释放,那么我们就不会写脚本来找他了,找他都是因为他没有自动释放。
            # 所以我们要列出占用swap并需要重启的进程,但是init这个进程是系统里所有进程的祖先进程
            # 重启init进程意味着重启系统,这是万万不可以的,所以就不必检测他了,以免对系统造成影响。
            if [ $pid -eq 1 ];then continue;fi
            grep -q "Swap" /proc/$pid/smaps 2>/dev/null
            if [ $? -eq 0 ];then
                swap=$(grep Swap /proc/$pid/smaps \
                    | gawk '{ sum+=$2;} END{ print sum }')
                proc_name=$(ps aux | grep -w "$pid" | grep -v grep \
                    | awk '{ for(i=11;i<=NF;i++){ printf("%s ",$i); }}')
                if [ $swap -gt 0 ];then
                    echo -e "${pid}\t${swap}\t${proc_name}"
                fi
            fi
        done | sort -k2 -n | awk -F'\t' '{
            pid[NR]=$1;
            size[NR]=$2;
            name[NR]=$3;
        }
        END{
            for(id=1;id<=length(pid);id++)
            {
                if(size[id]<1024)
                    printf("%-10s\t%15sKB\t%s\n",pid[id],size[id],name[id]);
                else if(size[id]<1048576)
                    printf("%-10s\t%15.2fMB\t%s\n",pid[id],size[id]/1024,name[id]);
                else
                    printf("%-10s\t%15.2fGB\t%s\n",pid[id],size[id]/1048576,name[id]);
            }
        }'

    }

    linux操作系统提供的信号{

        kill -l                    # 查看linux提供的信号
        trap "echo aaa"  2 3 15    # shell使用 trap 捕捉退出信号

        # 发送信号一般有两种原因:
        #   1(被动式)  内核检测到一个系统事件.例如子进程退出会像父进程发送SIGCHLD信号.键盘按下control+c会发送SIGINT信号
        #   2(主动式)  通过系统调用kill来向指定进程发送信号
        # 进程结束信号 SIGTERM 和 SIGKILL 的区别:  SIGTERM 比较友好,进程能捕捉这个信号,根据您的需要来关闭程序。在关闭程序之前,您可以结束打开的记录文件和完成正在做的任务。在某些情况下,假如进程正在进行作业而且不能中断,那么进程可以忽略这个SIGTERM信号。
        # 如果一个进程收到一个SIGUSR1信号,然后执行信号绑定函数,第二个SIGUSR2信号又来了,第一个信号没有被处理完毕的话,第二个信号就会丢弃。

        SIGHUP  1          A     # 终端挂起或者控制进程终止
        SIGINT  2          A     # 键盘终端进程(如control+c)
        SIGQUIT 3          C     # 键盘的退出键被按下
        SIGILL  4          C     # 非法指令
        SIGABRT 6          C     # 由abort(3)发出的退出指令
        SIGFPE  8          C     # 浮点异常
        SIGKILL 9          AEF   # Kill信号  立刻停止
        SIGSEGV 11         C     # 无效的内存引用
        SIGPIPE 13         A     # 管道破裂: 写一个没有读端口的管道
        SIGALRM 14         A     # 闹钟信号 由alarm(2)发出的信号
        SIGTERM 15         A     # 终止信号,可让程序安全退出 kill -15
        SIGUSR1 30,10,16   A     # 用户自定义信号1
        SIGUSR2 31,12,17   A     # 用户自定义信号2
        SIGCHLD 20,17,18   B     # 子进程结束自动向父进程发送SIGCHLD信号
        SIGCONT 19,18,25         # 进程继续(曾被停止的进程)
        SIGSTOP 17,19,23   DEF   # 终止进程
        SIGTSTP 18,20,24   D     # 控制终端(tty)上按下停止键
        SIGTTIN 21,21,26   D     # 后台进程企图从控制终端读
        SIGTTOU 22,22,27   D     # 后台进程企图从控制终端写

        缺省处理动作一项中的字母含义如下:
            A  缺省的动作是终止进程
            B  缺省的动作是忽略此信号,将该信号丢弃,不做处理
            C  缺省的动作是终止进程并进行内核映像转储(dump core),内核映像转储是指将进程数据在内存的映像和进程在内核结构中的部分内容以一定格式转储到文件系统,并且进程退出执行,这样做的好处是为程序员提供了方便,使得他们可以得到进程当时执行时的数据值,允许他们确定转储的原因,并且可以调试他们的程序。
            D  缺省的动作是停止进程,进入停止状况以后还能重新进行下去,一般是在调试的过程中(例如ptrace系统调用)
            E  信号不能被捕获
            F  信号不能被忽略
    }

    系统性能状态{

        vmstat 1 9

        r      # 等待执行的任务数。当这个值超过了cpu线程数,就会出现cpu瓶颈。
        b      # 等待IO的进程数量,表示阻塞的进程。
        swpd   # 虚拟内存已使用的大小,如大于0,表示机器物理内存不足,如不是程序内存泄露,那么该升级内存。
        free   # 空闲的物理内存的大小
        buff   # 已用的buff大小,对块设备的读写进行缓冲
        cache  # cache直接用来记忆我们打开的文件,给文件做缓冲,(把空闲的物理内存的一部分拿来做文件和目录的缓存,是为了提高 程序执行的性能,当程序使用内存时,buffer/cached会很快地被使用。)
        inact  # 非活跃内存大小,即被标明可回收的内存,区别于free和active -a选项时显示
        active # 活跃的内存大小 -a选项时显示
        si   # 每秒从磁盘读入虚拟内存的大小,如果这个值大于0,表示物理内存不够用或者内存泄露,要查找耗内存进程解决掉。
        so   # 每秒虚拟内存写入磁盘的大小,如果这个值大于0,同上。
        bi   # 块设备每秒接收的块数量,这里的块设备是指系统上所有的磁盘和其他块设备,默认块大小是1024byte
        bo   # 块设备每秒发送的块数量,例如读取文件,bo就要大于0。bi和bo一般都要接近0,不然就是IO过于频繁,需要调整。
        in   # 每秒CPU的中断次数,包括时间中断。in和cs这两个值越大,会看到由内核消耗的cpu时间会越多
        cs   # 每秒上下文切换次数,例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的数目,例如在apache和nginx这种web服务器中,我们一般做性能测试时会进行几千并发甚至几万并发的测试,选择web服务器的进程可以由进程或者线程的峰值一直下调,压测,直到cs到一个比较小的值,这个进程和线程数就是比较合适的值了。系统调用也是,每次调用系统函数,我们的代码就会进入内核空间,导致上下文切换,这个是很耗资源,也要尽量避免频繁调用系统函数。上下文切换次数过多表示你的CPU大部分浪费在上下文切换,导致CPU干正经事的时间少了,CPU没有充分利用。
        us   # 用户进程执行消耗cpu时间(user time)  us的值比较高时,说明用户进程消耗的cpu时间多,但是如果长期超过50%的使用,那么我们就该考虑优化程序算法或其他措施
        sy   # 系统CPU时间,如果太高,表示系统调用时间长,例如是IO操作频繁。
        id   # 空闲 CPU时间,一般来说,id + us + sy = 100,一般认为id是空闲CPU使用率,us是用户CPU使用率,sy是系统CPU使用率。
        wt   # 等待IOCPU时间。Wa过高时,说明io等待比较严重,这可能是由于磁盘大量随机访问造成的,也有可能是磁盘的带宽出现瓶颈。

        如果 r 经常大于4,且id经常少于40,表示cpu的负荷很重。
        如果 pi po 长期不等于0,表示内存不足。
        如果 b 队列经常大于3,表示io性能不好。

    }

}

日志管理{

    history                      # 历时命令默认1000条
    HISTTIMEFORMAT="%Y-%m-%d %H:%M:%S "   # 让history命令显示具体时间
    history  -c                  # 清除记录命令
    cat $HOME/.bash_history      # 历史命令记录文件
    lastb -a                     # 列出登录系统失败的用户相关信息  清空二进制日志记录文件 echo > /var/log/btmp
    last                         # 查看登陆过的用户信息  清空二进制日志记录文件 echo > /var/log/wtmp   默认打开乱码
    who /var/log/wtmp            # 查看登陆过的用户信息
    lastlog                      # 用户最后登录的时间
    tail -f /var/log/messages    # 系统日志
    tail -f /var/log/secure      # ssh日志

}

man{
    man 2 read   # 查看read函数的文档
    1 使用者在shell中可以操作的指令或可执行档
    2 系统核心可呼叫的函数与工具等
    3 一些常用的函数(function)与函数库(library),大部分是C的函数库(libc)
    4 装置档案的说明,通常在/dev下的档案
    5 设定档或者是某些档案的格式
    6 游戏games
    7 惯例与协定等,例如linux档案系统、网络协定、ascll code等说明
    8 系统管理员可用的管理指令
    9 跟kernel有关的文件
}

selinux{

    sestatus -v                    # 查看selinux状态
    getenforce                     # 查看selinux模式
    setenforce 0                   # 设置selinux为宽容模式(可避免阻止一些操作)
    semanage port -l               # 查看selinux端口限制规则
    semanage port -a -t http_port_t -p tcp 8000  # 在selinux中注册端口类型
    vi /etc/selinux/config         # selinux配置文件
    SELINUX=enfoceing              # 关闭selinux 把其修改为  SELINUX=disabled

}

查看剩余内存{

    free -m
    #-/+ buffers/cache:       6458       1649
    #6458M为真实使用内存  1649M为真实剩余内存(剩余内存+缓存+缓冲器)
    #linux会利用所有的剩余内存作为缓存,所以要保证linux运行速度,就需要保证内存的缓存大小

}

系统信息{

    uname -a              # 查看Linux内核版本信息
    cat /proc/version     # 查看内核版本
    cat /etc/issue        # 查看系统版本
    lsb_release -a        # 查看系统版本  需安装 centos-release
    locale -a             # 列出所有语系
    locale                # 当前环境变量中所有编码
    hwclock               # 查看时间
    who                   # 当前在线用户
    w                     # 当前在线用户
    whoami                # 查看当前用户名
    logname               # 查看初始登陆用户名
    uptime                # 查看服务器启动时间
    sar -n DEV 1 10       # 查看网卡网速流量
    dmesg                 # 显示开机信息
    lsmod                 # 查看内核模块

}

硬件信息{

    more /proc/cpuinfo                                       # 查看cpu信息
    lscpu                                                    # 查看cpu信息
    cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c    # 查看cpu型号和逻辑核心数
    getconf LONG_BIT                                         # cpu运行的位数
    cat /proc/cpuinfo | grep 'physical id' |sort| uniq -c    # 物理cpu个数
    cat /proc/cpuinfo | grep flags | grep ' lm ' | wc -l     # 结果大于0支持64位
    cat /proc/cpuinfo|grep flags                             # 查看cpu是否支持虚拟化   pae支持半虚拟化  IntelVT 支持全虚拟化
    more /proc/meminfo                                       # 查看内存信息
    dmidecode                                                # 查看全面硬件信息
    dmidecode | grep "Product Name"                          # 查看服务器型号
    dmidecode | grep -P -A5 "Memory\s+Device" | grep Size | grep -v Range       # 查看内存插槽
    cat /proc/mdstat                                         # 查看软raid信息
    cat /proc/scsi/scsi                                      # 查看Dell硬raid信息(IBM、HP需要官方检测工具)
    lspci                                                    # 查看硬件信息
    lspci|grep RAID                                          # 查看是否支持raid
    lspci -vvv |grep Ethernet                                # 查看网卡型号
    lspci -vvv |grep Kernel|grep driver                      # 查看驱动模块
    modinfo tg2                                              # 查看驱动版本(驱动模块)
    ethtool -i em1                                           # 查看网卡驱动版本
    ethtool em1                                              # 查看网卡带宽

}

终端快捷键{

    Ctrl+A             # 行前
    Ctrl+E             # 行尾
    Ctrl+S             # 终端锁屏
    Ctrl+Q            # 解锁屏
    Ctrl+D            # 退出

}

开机启动模式{

    vi /etc/inittab
    id:3:initdefault:    # 3为多用户命令
    #ca::ctrlaltdel:/sbin/shutdown -t3 -r now   # 注释此行 禁止 ctrl+alt+del 关闭计算机

}

终端提示显示{

    echo $PS1                   # 环境变量控制提示显示
    PS1='[\u@ \H \w \A \@#]\$'
    PS1='[\u@\h \W]\$'
    export PS1='[\[\e[32m\]\[\e[31m\]\u@\[\e[36m\]\h \w\[\e[m\]]\$ '     # 高亮显示终端

}

定时任务{

    at 5pm + 3 days /bin/ls  # 单次定时任务 指定三天后下午5:00执行/bin/ls

    crontab -e               # 编辑周期任务
    #分钟  小时    天  月  星期   命令或脚本
    1,30  1-3/2    *   *   *      命令或脚本  >> file.log 2>&1
    echo "40 7 * * 2 /root/sh">>/var/spool/cron/work    # 普通用户可直接写入定时任务
    crontab -l                                          # 查看自动周期性任务
    crontab -r                                          # 删除自动周期性任务
    cron.deny和cron.allow                               # 禁止或允许用户使用周期任务
    service crond start|stop|restart                    # 启动自动周期性服务
    * * * * *  echo "d" >>d$(date +\%Y\%m\%d).log       # 让定时任务直接生成带日期的log  需要转义%

}

date{

    星期日[SUN] 星期一[MON] 星期二[TUE] 星期三[WED] 星期四[THU] 星期五[FRI] 星期六[SAT]
    一月[JAN] 二月[FEB] 三月[MAR] 四月[APR] 五月[MAY] 六月[JUN] 七月[JUL] 八月[AUG] 九月[SEP] 十月[OCT] 十一月[NOV] 十二月[DEC]

    date -s 20091112                     # 设日期
    date -s 18:30:50                     # 设时间
    date -d "7 days ago" +%Y%m%d         # 7天前日期
    date -d "5 minute ago" +%H:%M        # 5分钟前时间
    date -d "1 month ago" +%Y%m%d        # 一个月前
    date -d '1 days' +%Y-%m-%d           # 一天后
    date -d '1 hours' +%H:%M:%S          # 一小时后
    date +%Y-%m-%d -d '20110902'         # 日期格式转换
    date +%Y-%m-%d_%X                    # 日期和时间
    date +%N                             # 纳秒
    date -d "2012-08-13 14:00:23" +%s    # 换算成秒计算(1970年至今的秒数)
    date -d "@1363867952" +%Y-%m-%d-%T   # 将时间戳换算成日期
    date -d "1970-01-01 UTC 1363867952 seconds" +%Y-%m-%d-%T  # 将时间戳换算成日期
    date -d "`awk -F. '{print $1}' /proc/uptime` second ago" +"%Y-%m-%d %H:%M:%S"    # 格式化系统启动时间(多少秒前)

}

limits.conf{

    ulimit -SHn 65535  # 临时设置文件描述符大小 进程最大打开文件柄数 还有socket最大连接数, 等同配置 nofile
    ulimit -SHu 65535  # 临时设置用户最大进程数
    ulimit -a          # 查看

    /etc/security/limits.conf

    # 文件描述符大小  open files
    # lsof |wc -l   查看当前文件句柄数使用数量
    * soft nofile 16384         # 设置太大,进程使用过多会把机器拖死
    * hard nofile 32768

    # 用户最大进程数  max user processes
    # echo $((`ps uxm |wc -l`-`ps ux |wc -l`))  查看当前用户占用的进程数 [包括线程]
    user soft nproc 16384
    user hard nproc 32768

    # 如果/etc/security/limits.d/有配置文件,将会覆盖/etc/security/limits.conf里的配置
    # 即/etc/security/limits.d/的配置文件里就不要有同样的参量设置
    /etc/security/limits.d/90-nproc.conf    # centos6.3的默认这个文件会覆盖 limits.conf
    user soft nproc 16384
    user hard nproc 32768

    sysctl -p    # 修改配置文件后让系统生效

}

随机分配端口范围{

    # 本机连其它端口用的
    echo "10000 65535" > /proc/sys/net/ipv4/ip_local_port_range

}

百万长链接设置{

    # 内存消耗需要较大
    vim /root/.bash_profile
    # 添加如下2行,退出bash重新登陆
    # 一个进程不能使用超过NR_OPEN文件描述符
    echo 20000500 > /proc/sys/fs/nr_open
    # 当前用户最大文件数
    ulimit -n 10000000

}

core崩溃文件查看{

    gdb  core.13844
    bt   # 查看函数调用信息(堆栈)

}


libc.so故障修复{

    # 由于升级glibc导致libc.so不稳定,突然报错,幸好还有未退出的终端
    grep: error while loading shared libraries: /lib64/libc.so.6: ELF file OS ABI invalid

    # 看看当前系统有多少版本 libc.so
    ls /lib64/libc-[tab]

    # 更改环境变量指向其他 libc.so 文件测试
    export LD_PRELOAD=/lib64/libc-2.7.so    # 如果不改变LD_PRELOAD变量,ln不能用,需要使用 /sbin/sln 命令做链接

    # 当前如果好使了,在执行下面强制替换软链接。如不好使,测试其他版本的libc.so文件
    ln -f -s /lib64/libc-2.7.so /lib64/libc.so.6

}

无法分配内存 {

    fork: Cannot allocate memory

    # 报错不一定是内存不够用,进程数或者线程数满了也会报这个错误, 可以适当增加 kernel.pid_max 的值,
    cat /proc/sys/kernel/pid_max  # 默认3.2w

}

sudo{

    echo myPassword | sudo -S ls /tmp  # 直接输入sudo的密码非交互,从标准输入读取密码而不是终端设备
    visudo                             # sudo命令权限添加  /etc/sudoers
    用户  别名(可用all)=NOPASSWD:命令1,命令2
    user  ALL=NOPASSWD:/bin/su         # 免root密码切换root身份
    wangming linuxfan=NOPASSWD:/sbin/apache start,/sbin/apache restart
    UserName ALL=(ALL) ALL
    UserName ALL=(ALL) NOPASSWD: ALL
    peterli        ALL=(ALL)       NOPASSWD:/sbin/service
    Defaults requiretty                # sudo不允许后台运行,注释此行既允许
    Defaults !visiblepw                # sudo不允许远程,去掉!既允许

}

grub开机启动项添加{

    vim /etc/grub.conf
    title ms-dos
    rootnoverify (hd0,0)
    chainloader +1

}

stty{

    #stty时一个用来改变并打印终端行设置的常用命令

    stty iuclc          # 在命令行下禁止输出大写
    stty -iuclc         # 恢复输出大写
    stty olcuc          # 在命令行下禁止输出小写
    stty -olcuc         # 恢复输出小写
    stty size           # 打印出终端的行数和列数
    stty eof "string"   # 改变系统默认ctrl+D来表示文件的结束
    stty -echo          # 禁止回显
    stty echo           # 打开回显
    stty -echo;read;stty echo;read  # 测试禁止回显
    stty igncr          # 忽略回车符
    stty -igncr         # 恢复回车符
    stty erase '#'      # 将#设置为退格字符
    stty erase '^?'     # 恢复退格字符

    定时输入{

        timeout_read(){
            timeout=$1
            old_stty_settings=`stty -g`  # save current settings
            stty -icanon min 0 time 100  # set 10seconds,not 100seconds
            eval read varname            # =read $varname
            stty "$old_stty_settings"    # recover settings
        }

        read -t 10 varname    # 更简单的方法就是利用read命令的-t选项

    }

    检测用户按键{

        #!/bin/bash
        old_tty_settings=$(stty -g)   # 保存老的设置(为什么?).
        stty -icanon
        Keypress=$(head -c1)          # 或者使用$(dd bs=1 count=1 2> /dev/null)
        echo "Key pressed was \""$Keypress"\"."
        stty "$old_tty_settings"      # 恢复老的设置.
        exit 0

    }

}

iptables{

    内建三个表:nat mangle 和 filter
    filter预设规则表,有INPUT、FORWARD 和 OUTPUT 三个规则链
    vi /etc/sysconfig/iptables    # 配置文件
    INPUT    # 进入
    FORWARD  # 转发
    OUTPUT   # 出去
    ACCEPT   # 将封包放行
    REJECT   # 拦阻该封包
    DROP     # 丢弃封包不予处理
    -A       # 在所选择的链(INPUT等)末添加一条或更多规则
    -D       # 删除一条
    -E       # 修改
    -p       # tcp、udp、icmp    0相当于所有all    !取反
    -P       # 设置缺省策略(与所有链都不匹配强制使用此策略)
    -s       # IP/掩码    (IP/24)    主机名、网络名和清楚的IP地址 !取反
    -j       # 目标跳转,立即决定包的命运的专用内建目标
    -i       # 进入的(网络)接口 [名称] eth0
    -o       # 输出接口[名称]
    -m       # 模块
    --sport  # 源端口
    --dport  # 目标端口

    iptables -F                        # 将防火墙中的规则条目清除掉  # 注意: iptables -P INPUT ACCEPT
    iptables-restore < 规则文件        # 导入防火墙规则
    /etc/init.d/iptables save          # 保存防火墙设置
    /etc/init.d/iptables restart       # 重启防火墙服务
    iptables -L -n                     # 查看规则
    iptables -t nat -nL                # 查看转发

    iptables实例{

        iptables -L INPUT                   # 列出某规则链中的所有规则
        iptables -X allowed                 # 删除某个规则链 ,不加规则链,清除所有非内建的
        iptables -Z INPUT                   # 将封包计数器归零
        iptables -N allowed                 # 定义新的规则链
        iptables -P INPUT DROP              # 定义过滤政策
        iptables -A INPUT -s 192.168.1.1    # 比对封包的来源IP   # ! 192.168.0.0/24  ! 反向对比
        iptables -A INPUT -d 192.168.1.1    # 比对封包的目的地IP
        iptables -A INPUT -i eth0           # 比对封包是从哪片网卡进入
        iptables -A FORWARD -o eth0         # 比对封包要从哪片网卡送出 eth+表示所有的网卡
        iptables -A INPUT -p tcp            # -p ! tcp 排除tcp以外的udp、icmp。-p all所有类型
        iptables -D INPUT 8                 # 从某个规则链中删除一条规则
        iptables -D INPUT --dport 80 -j DROP         # 从某个规则链中删除一条规则
        iptables -R INPUT 8 -s 192.168.0.1 -j DROP   # 取代现行规则
        iptables -I INPUT 8 --dport 80 -j ACCEPT     # 插入一条规则
        iptables -A INPUT -i eth0 -j DROP            # 其它情况不允许
        iptables -A INPUT -p tcp -s IP -j DROP       # 禁止指定IP访问
        iptables -A INPUT -p tcp -s IP --dport port -j DROP               # 禁止指定IP访问端口
        iptables -A INPUT -s IP -p tcp --dport port -j ACCEPT             # 允许在IP访问指定端口
        iptables -A INPUT -p tcp --dport 22 -j DROP                       # 禁止使用某端口
        iptables -A INPUT -i eth0 -p icmp -m icmp --icmp-type 8 -j DROP   # 禁止icmp端口
        iptables -A INPUT -i eth0 -p icmp -j DROP                         # 禁止icmp端口
        iptables -t filter -A INPUT -i eth0 -p tcp --syn -j DROP                  # 阻止所有没有经过你系统授权的TCP连接
        iptables -A INPUT -f -m limit --limit 100/s --limit-burst 100 -j ACCEPT   # IP包流量限制
        iptables -A INPUT -i eth0 -s 192.168.62.1/32 -p icmp -m icmp --icmp-type 8 -j ACCEPT  # 除192.168.62.1外,禁止其它人ping我的主机
        iptables -A INPUT -p tcp -m tcp --dport 80 -m state --state NEW -m recent --update --seconds 5 --hitcount 20 --rttl --name WEB --rsource -j DROP  # 可防御cc攻击(未测试)

    }

    iptables配置实例文件{

        # Generated by iptables-save v1.2.11 on Fri Feb  9 12:10:37 2007
        *filter
        :INPUT ACCEPT [637:58967]
        :FORWARD DROP [0:0]
        :OUTPUT ACCEPT [5091:1301533]
        # 允许的IP或IP段访问 建议多个
        -A INPUT -s 127.0.0.1 -p tcp -j ACCEPT
        -A INPUT -s 192.168.0.0/255.255.0.0 -p tcp -j ACCEPT
        # 开放对外开放端口
        -A INPUT -p tcp --dport 80 -j ACCEPT
        # 指定某端口针对IP开放
        -A INPUT -s 192.168.10.37 -p tcp --dport 22 -j ACCEPT
        # 拒绝所有协议(INPUT允许)
        -A INPUT -p tcp -m tcp --tcp-flags FIN,SYN,RST,PSH,URG RST -j DROP
        # 允许已建立的或相关连的通行
        -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
        # 拒绝ping
        -A INPUT -p tcp -m tcp -j REJECT --reject-with icmp-port-unreachable
        COMMIT
        # Completed on Fri Feb  9 12:10:37 2007

    }

    iptables配置实例{

        # 允许某段IP访问任何端口
        iptables -A INPUT -s 192.168.0.3/24 -p tcp -j ACCEPT
        # 设定预设规则 (拒绝所有的数据包,再允许需要的,如只做WEB服务器.还是推荐三个链都是DROP)
        iptables -P INPUT DROP
        iptables -P FORWARD DROP
        iptables -P OUTPUT ACCEPT
        # 注意: 直接设置这三条会掉线
        # 开启22端口
        iptables -A INPUT -p tcp --dport 22 -j ACCEPT
        # 如果OUTPUT 设置成DROP的,要写上下面一条
        iptables -A OUTPUT -p tcp --sport 22 -j ACCEPT
        # 注:不写导致无法SSH.其他的端口一样,OUTPUT设置成DROP的话,也要添加一条链
        # 如果开启了web服务器,OUTPUT设置成DROP的话,同样也要添加一条链
        iptables -A OUTPUT -p tcp --sport 80 -j ACCEPT
        # 做WEB服务器,开启80端口 ,其他同理
        iptables -A INPUT -p tcp --dport 80 -j ACCEPT
        # 做邮件服务器,开启25,110端口
        iptables -A INPUT -p tcp --dport 110 -j ACCEPT
        iptables -A INPUT -p tcp --dport 25 -j ACCEPT
        # 允许icmp包通过,允许ping
        iptables -A OUTPUT -p icmp -j ACCEPT (OUTPUT设置成DROP的话)
        iptables -A INPUT -p icmp -j ACCEPT  (INPUT设置成DROP的话)
        # 允许loopback!(不然会导致DNS无法正常关闭等问题)
        IPTABLES -A INPUT -i lo -p all -j ACCEPT (如果是INPUT DROP)
        IPTABLES -A OUTPUT -o lo -p all -j ACCEPT(如果是OUTPUT DROP)

    }

    centos6的iptables基本配置{
        *filter
        :INPUT ACCEPT [0:0]
        :FORWARD ACCEPT [0:0]
        :OUTPUT ACCEPT [0:0]
        -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
        -A INPUT -p icmp -j ACCEPT
        -A INPUT -i lo -j ACCEPT
        -A INPUT -s 222.186.135.61 -p tcp -j ACCEPT
        -A INPUT -p tcp  --dport 80 -j ACCEPT
        -A INPUT -m state --state NEW -m tcp -p tcp --dport 22 -j ACCEPT
        -A INPUT -j REJECT --reject-with icmp-host-prohibited
        -A INPUT -p tcp -m tcp --tcp-flags FIN,SYN,RST,PSH,URG RST -j DROP
        -A FORWARD -j REJECT --reject-with icmp-host-prohibited
        COMMIT
    }

    添加网段转发{

        # 例如通过vpn上网
        echo 1 > /proc/sys/net/ipv4/ip_forward       # 在内核里打开ip转发功能
        iptables -t nat -A POSTROUTING -s 10.8.0.0/24 -j MASQUERADE  # 添加网段转发
        iptables -t nat -A POSTROUTING -s 10.0.0.0/255.0.0.0 -o eth0 -j SNAT --to 192.168.10.158  # 原IP网段经过哪个网卡IP出去
        iptables -t nat -nL                # 查看转发

    }

    端口映射{

        # 内网通过有外网IP的机器映射端口
        # 内网主机添加路由
        route add -net 10.10.20.0 netmask 255.255.255.0 gw 10.10.20.111     # 内网需要添加默认网关,并且网关开启转发
        # 网关主机
        echo 1 > /proc/sys/net/ipv4/ip_forward       # 在内核里打开ip转发功能
        iptables -t nat -A PREROUTING -d 外网IP  -p tcp --dport 9999 -j DNAT --to 10.10.20.55:22    # 进入
        iptables -t nat -A POSTROUTING -s 10.10.20.0/24 -j SNAT --to 外网IP                         # 转发回去
        iptables -t nat -nL                # 查看转发

    }

}

}

4 服务{

/etc/init.d/sendmail start                   # 启动服务
/etc/init.d/sendmail stop                    # 关闭服务
/etc/init.d/sendmail status                  # 查看服务当前状态
/date/mysql/bin/mysqld_safe --user=mysql &   # 启动mysql后台运行
/bin/systemctl restart  mysqld.service       # centos7启动服务
vi /etc/rc.d/rc.local                        # 开机启动执行  可用于开机启动脚本
/etc/rc.d/rc3.d/S55sshd                      # 开机启动和关机关闭服务连接    # S开机start  K关机stop  55级别 后跟服务名
ln -s -f /date/httpd/bin/apachectl /etc/rc.d/rc3.d/S15httpd   # 将启动程序脚本连接到开机启动目录
ipvsadm -ln                                  # lvs查看后端负载机并发
ipvsadm -C                                   # lvs清除规则
xm list                                      # 查看xen虚拟主机列表
virsh                                        # 虚拟化(xen\kvm)管理工具  yum groupinstall Virtual*
./bin/httpd -M                               # 查看httpd加载模块
httpd -t -D DUMP_MODULES                     # rpm包httpd查看加载模块
echo 内容| /bin/mail -s "标题" 收件箱 -f 发件人       # 发送邮件
"`echo "内容"|iconv -f utf8 -t gbk`" | /bin/mail -s "`echo "标题"|iconv -f utf8 -t gbk`" 收件箱     # 解决邮件乱码
/usr/local/nagios/bin/nagios -v /usr/local/nagios/etc/nagios.cfg   # 检测nagios配置文件

chkconfig{

    chkconfig service on|off|set             # 设置非独立服务启状态
    chkconfig --level 35   httpd   off       # 让服务不自动启动
    chkconfig --level 35   httpd   on        # 让服务自动启动 35指的是运行级别
    chkconfig --list                         # 查看所有服务的启动状态
    chkconfig --list |grep httpd             # 查看某个服务的启动状态
    chkconfig –-list [service]               # 查看服务的状态

}

systemctl{

    systemctl is-active *.service      # 查看服务是否运行
    systemctl is-enabled *.service     # 查询服务是否开机启动
    systemctl mask *.service           # 注销指定服务
    systemctl unmask cups.service      # 取消注销cups服务
    systemctl enable *.service         # 开机运行服务
    systemctl disable *.service        # 取消开机运行
    systemctl start *.service          # 启动服务
    systemctl stop *.service           # 停止服务
    systemctl restart *.service        # 重启服务
    systemctl reload *.service         # 重新加载服务配置文件
    systemctl status *.service         # 查询服务运行状态
    systemctl --failed                 # 显示启动失败的服务
    systemctl poweroff                 # 系统关机
    systemctl reboot                   # 重新启动
    systemctl rescue                   # 强制进入救援模式
    systemctl emergency                # 强制进入紧急救援模式
    systemctl list-dependencies        # 查看当前运行级别target(mult-user)启动了哪些服务
    systemctl list-unit-files          # 查看开机启动的状态
    journalctl -r -u elasticsearch.service  # 查看日志 r倒序 u服务名
    /etc/systemd/system/falcon-agent.service
        [Unit]
        Description=This is zuiyou monitor agent
        After=network.target remote-fs.target nss-lookup.target

        [Service]
        User= root
        Type=simple
        PIDFile=/opt/falcon-agent/var/app.pid
        ExecStartPre=/usr/bin/rm -f /opt/falcon-agent/var/app.pid
        ExecStart=/opt/falcon-agent/control start
        ExecReload=/bin/kill -s HUP $MAINPID
        KillMode=process
        KillSignal=SIGQUIT
        TimeoutStopSec=5
        PrivateTmp=true
        Restart=always
        LimitNOFILE=infinity

        [Install]
        WantedBy=multi-user.target

    systemctl daemon-reload           # 加载配置

}


nginx{

    yum install -y make gcc  openssl-devel pcre-devel  bzip2-devel libxml2 libxml2-devel curl-devel libmcrypt-devel libjpeg libjpeg-devel libpng libpng-devel openssl

    groupadd nginx
    useradd nginx -g nginx -M -s /sbin/nologin

    mkdir -p /opt/nginx-tmp

    wget http://labs.frickle.com/files/ngx_cache_purge-1.6.tar.gz
    tar fxz ngx_cache_purge-1.6.tar.gz
    # ngx_cache_purge 清除指定url缓存
    # 假设一个URL为 http://192.168.12.133/test.txt
    # 通过访问      http://192.168.12.133/purge/test.txt  就可以清除该URL的缓存。

    tar zxvpf nginx-1.4.4.tar.gz
    cd nginx-1.4.4

    # ./configure --help
    # --with                 # 默认不加载 需指定编译此参数才使用
    # --without              # 默认加载,可用此参数禁用
    # --add-module=path      # 添加模块的路径
    # --add-module=/opt/ngx_module_upstream_check \         # nginx 代理状态页面
    # ngx_module_upstream_check  编译前需要打对应版本补丁 patch -p1 < /opt/nginx_upstream_check_module/check_1.2.6+.patch
    # --add-module=/opt/ngx_module_memc \                   # 将请求页面数据存放在 memcached中
    # --add-module=/opt/ngx_module_lua \                    # 支持lua脚本 yum install lua-devel lua

    ./configure \
    --user=nginx \
    --group=nginx \
    --prefix=/usr/local/nginx \
    --with-http_ssl_module \
    --with-http_realip_module \
    --with-http_gzip_static_module \
    --with-http_stub_status_module \
    --add-module=/opt/ngx_cache_purge-1.6 \
    --http-client-body-temp-path=/opt/nginx-tmp/client \
    --http-proxy-temp-path=/opt/nginx-tmp/proxy \
    --http-fastcgi-temp-path=/opt/nginx-tmp/fastcgi \
    --http-uwsgi-temp-path=/opt/nginx-tmp/uwsgi \
    --http-scgi-temp-path=/opt/nginx-tmp/scgi

    make && make install

    /usr/local/nginx/sbin/nginx –t             # 检查Nginx配置文件 但并不执行
    /usr/local/nginx/sbin/nginx -t -c /opt/nginx/conf/nginx.conf  # 检查Nginx配置文件
    /usr/local/nginx/sbin/nginx                # 启动nginx
    /usr/local/nginx/sbin/nginx -s reload      # 重载配置
    /usr/local/nginx/sbin/nginx -s stop        # 关闭nginx服务

}

elasticsearch{

    vim /etc/sysctl.conf
    vm.max_map_count = 262144

    vim /etc/security/limits.conf
    * soft memlock unlimited
    * hard memlock unlimited
    sysctl -p

    curl 'localhost:9200/_cat/health?v'                    # 健康检查
    curl 'localhost:9200/_cat/nodes?v'                     # 获取集群的节点列表
    curl 'localhost:9200/_cat/indices?v'                   # 列出所有索引
    curl 127.0.0.1:9200/indexname -XDELETE                 # 删除索引
    curl -XGET http://localhost:9200/_cat/shards           # 查看分片
    curl '127.0.0.1:9200/_cat/indices'                     # 查分片同步  unassigned_shards  # 没同步完成

}


mysql常用命令{

    # mysql 可视化工具 MySQL Workbench

    mysqlcheck -uroot -p -S mysql.sock --optimize --databases account       # 检查、修复、优化MyISAM表
    mysqlbinlog slave-relay-bin.000001              # 查看二进制日志
    mysqladmin -h myhost -u root -p create dbname   # 创建数据库

    flush privileges;             # 刷新
    show databases;               # 显示所有数据库
    use dbname;                   # 打开数据库
    show tables;                  # 显示选中数据库中所有的表
    desc tables;                  # 查看表结构
    drop database name;           # 删除数据库
    drop table name;              # 删除表
    create database name;         # 创建数据库
    select column from table;     # 查询
    show processlist;             # 查看mysql进程
    show full processlist;        # 显示进程全的语句
    select user();                # 查看所有用户
    show slave status\G;          # 查看主从状态
    show variables;               # 查看所有参数变量
    show status;                  # 运行状态
    show table status             # 查看表的引擎状态
    show grants for user@'%'                                    # 查看用户权限
    drop table if exists user                                   # 表存在就删除
    create table if not exists user                             # 表不存在就创建
    select host,user,password from user;                        # 查询用户权限 先use mysql
    create table ka(ka_id varchar(6),qianshu int);              # 创建表
    show variables like 'character_set_%';                      # 查看系统的字符集和排序方式的设定
    show variables like '%timeout%';                            # 查看超时相关参数
    delete from user where user='';                             # 删除空用户
    delete from user where user='sss' and host='localhost' ;    # 删除用户
    drop user 'sss'@'localhost';                                # 使用此方法删除用户更为靠谱
    ALTER TABLE mytable ENGINE = MyISAM ;                       # 改变现有的表使用的存储引擎
    SHOW TABLE STATUS from  dbname  where Name='tablename';     # 查询表引擎
    mysql -uroot -p -A -ss -h10.10.10.5 -e "show databases;"    # shell中获取数据不带表格 -ss参数
    CREATE TABLE innodb (id int, title char(20)) ENGINE = INNODB                     # 创建表指定存储引擎的类型(MyISAM或INNODB)
    grant replication slave on *.* to 'user'@'%' identified by 'pwd';                # 创建主从复制用户
    ALTER TABLE player ADD INDEX weekcredit_faction_index (weekcredit, faction);     # 添加索引
    alter table name add column accountid(column)  int(11) NOT NULL(column);         # 插入字段
    update host set monitor_state='Y',hostname='xuesong' where ip='192.168.1.1';     # 更新数据
    select * from information_schema.processlist where command!='sleep';             # 查看当前进程
    select * from atable where name='on' AND t<15 AND host LIKE '10%' limit 1,10;    # 多条件查询
    show create database ops_deploy;                                                 # 查看数据库编码
    show create table updatelog;                                                     # 查看数据库表编码
    alter database ops_deploy CHARACTER SET utf8;                                    # 修改数据库编码
    alter table `updatelog` default character set utf8;                              # 修改表编码
    alter table `updatelog` convert to character set utf8;                           # 修改一张表的所有字段的编码格式

    自增表{

        create table xuesong  (id INTEGER  PRIMARY KEY AUTO_INCREMENT, name CHAR(30) NOT NULL, age integer , sex CHAR(15) );  # 创建自增表
        insert into xuesong(name,age,sex) values(%s,%s,%s)  # 自增插入数据

    }

    登录mysql的命令{

        # 格式: mysql -h 主机地址 -u 用户名 -p 用户密码
        mysql -h110.110.110.110 -P3306 -uroot -p
        mysql -uroot -p -S /data1/mysql5/data/mysql.sock -A  --default-character-set=GBK

    }

    shell执行mysql命令{

        mysql -u root -p'123' xuesong < file.sql   # 针对指定库执行sql文件中的语句,好处不需要转义特殊符号,一条语句可以换行.不指定库执行时语句中需要先use
        mysql -u$username -p$passwd -h$dbhost -P$dbport -A -e "
        use $dbname;
        delete from data where date=('$date1');
        "    # 执行多条mysql命令
        mysql -uroot -p -S mysql.sock -e "use db;alter table gift add column accountid  int(11) NOT NULL;flush privileges;"  2>&1 |grep -v Warning    # 不登陆mysql插入字段

    }


    mysql字符集相关{

        show variables like '%character%';      # 查看数据库中设置字符集的参数
        # character_set_client、character_set_connection 以及 character_set_results 这几个参数都是客户端的设置
        # character_set_system、character_set_server 以及 character_set_database 是指服务器端的设置。
        # 而对于这三个服务器端的参数来说的优先级是:
        # 列级字符集 > 表级字符集 > character_set_database > character_set_server > character_set_system

        show global variables like '%char%';                                 #查看RDS实例字符集相关参数设置
        show global variables like 'coll%';                                  #查看当前会话字符序相关参数设置
        show character set;                                                  #查看实例支持的字符集
        show collation;                                                      #查看实例支持的字符序
        show create table table_name \G                                      #查看表字符集设置
        show create database database_name \G                                #查看数据库字符集设置
        show create procedure procedure_name \G                              #查看存储过程字符集设置
        show procedure status \G                                             #查看存储过程字符集设置
        alter database db_name default charset utf8;                         #修改数据库的字符集 
        create database db_name character set utf8;                          #创建数据库时指定字符集
        alter table tab_name default charset utf8 collate utf8_general_ci;   #修改表字符集和字符序

        # 下面三条sql 分别将库 dbsdq , 表 tt2 , 表 tt2 中的 c2 列修改为utf8mb4 字符集
        alter database dbsdq character set utf8mb4 collate utf8mb4_unicode_ci;
        use dbsdq;
        alter table tt2 character set utf8mb4 collate utf8mb4_unicode_ci;
        alter table tt2 modify c2  varchar(10) character set utf8mb4;
        # 修改列时,当前列中的所有行都会立即转化为新的字符集;
        # alter table 会对表加元数据锁

    }

    备份数据库{

        mysqldump -h host -u root -p --default-character-set=utf8 dbname >dbname_backup.sql               # 不包括库名,还原需先创建库,在use
        mysqldump -h host -u root -p --database --default-character-set=utf8 dbname >dbname_backup.sql    # 包括库名,还原不需要创建库
        /bin/mysqlhotcopy -u root -p    # mysqlhotcopy只能备份MyISAM引擎
        mysqldump -u root -p -S mysql.sock --default-character-set=utf8 dbname table1 table2  > /data/db.sql    # 备份表
        mysqldump -uroot -p123  -d database > database.sql    # 备份数据库结构

        # 最小权限备份
        grant select on db_name.* to dbbackup@"localhost" Identified by "passwd";
        # --single-transaction  InnoDB有时间戳 只备份开始那一刻的数据,备份过程中的数据不会备份
        mysqldump -hlocalhost -P 3306 -u dbbackup --single-transaction  -p"passwd" --database dbname >dbname.sql

        # xtrabackup备份需单独安装软件 优点: 速度快,压力小,可直接恢复主从复制
        innobackupex --user=root --password="" --defaults-file=/data/mysql5/data/my_3306.cnf --socket=/data/mysql5/data/mysql.sock --slave-info --stream=tar --tmpdir=/data/dbbackup/temp /data/dbbackup/ 2>/data/dbbackup/dbbackup.log | gzip 1>/data/dbbackup/db50.tar.gz

    }

    还原数据库{

        mysql -h host -u root -p dbname < dbname_backup.sql
        source 路径.sql   # 登陆mysql后还原sql文件

    }

    赋权限{

        # 指定IP: $IP  本机: localhost   所有IP地址: %   # 通常指定多条
        grant all on zabbix.* to user@"$IP";             # 对现有账号赋予权限
        grant select on database.* to user@"%" Identified by "passwd";     # 赋予查询权限(没有用户,直接创建)
        grant all privileges on database.* to user@"$IP" identified by 'passwd';         # 赋予指定IP指定用户所有权限(不允许对当前库给其他用户赋权限)
        grant all privileges on database.* to user@"localhost" identified by 'passwd' with grant option;   # 赋予本机指定用户所有权限(允许对当前库给其他用户赋权限)
        grant select, insert, update, delete on database.* to user@'ip'identified by "passwd";   # 开放管理操作指令
        revoke all on *.* from user@localhost;     # 回收权限
        GRANT SELECT, INSERT, UPDATE, DELETE, CREATE, DROP, INDEX, ALTER, EXECUTE, CREATE ROUTINE, ALTER ROUTINE ON `storemisc_dev`.* TO 'user'@'192.168.%'

    }

    更改密码{

        update user set password=password('passwd') where user='root'
        mysqladmin -u root password 'xuesong'

    }

    mysql忘记密码后重置{

        cd /data/mysql5
        /data/mysql5/bin/mysqld_safe --user=mysql --skip-grant-tables --skip-networking &
        use mysql;
        update user set password=password('123123') where user='root';

    }

    mysql主从复制失败恢复{

        slave stop;
        reset slave;
        change master to master_host='10.10.10.110',master_port=3306,master_user='repl',master_password='repl',master_log_file='master-bin.000010',master_log_pos=107,master_connect_retry=60;
        slave start;

    }

    sql语句使用变量{

        use xuesong;
        set @a=concat('my',weekday(curdate()));    # 组合时间变量
        set @sql := concat('CREATE TABLE IF NOT EXISTS ',@a,'( id INT(11) NOT NULL )');   # 组合sql语句
        select @sql;                    # 查看语句
        prepare create_tb from @sql;    # 准备
        execute create_tb;              # 执行

    }

    检测mysql主从复制延迟{

        1、在从库定时执行更新主库中的一个timeout数值
        2、同时取出从库中的timeout值对比判断从库与主库的延迟

    }

    死锁{

        show OPEN TABLES where In_use > 0;                  # 查看当前锁信息
        show variables like 'innodb_print_all_deadlocks';   # 查看当前死锁参数
        set global innodb_print_all_deadlocks = 1;          # 设置死锁信息保存到错误日志
        innodb_print_all_deadlocks = 1                      # conf配置

    }

    mysql慢查询{

        select * from information_schema.processlist where command in ('Query') and time >5\G      # 查询操作大于5S的进程

        开启慢查询日志{

            # 配置文件 /etc/my.conf
            [mysqld]
            log-slow-queries=/var/lib/mysql/slowquery.log         # 指定日志文件存放位置,可以为空,系统会给一个缺省的文件host_name-slow.log
            long_query_time=5                                     # 记录超过的时间,默认为10s 建议0.5S
            log-queries-not-using-indexes                         # log下来没有使用索引的query,可以根据情况决定是否开启  可不加
            log-long-format                                       # 如果设置了,所有没有使用索引的查询也将被记录    可不加
            # 直接修改生效
            show variables like "%slow%";                         # 查看慢查询状态
            set global slow_query_log='ON';                       # 开启慢查询日志 变量可能不同,看上句查询出来的变量

        }

        mysqldumpslow慢查询日志查看{

            -s  # 是order的顺序,包括看了代码,主要有 c,t,l,r和ac,at,al,ar,分别是按照query次数,时间,lock的时间和返回的记录数来排序,前面加了a的时倒序
            -t  # 是top n的意思,即为返回前面多少条的数据
            -g  # 后边可以写一个正则匹配模式,大小写不敏感的

            mysqldumpslow -s c -t 20 host-slow.log                # 访问次数最多的20个sql语句
            mysqldumpslow -s r -t 20 host-slow.log                # 返回记录集最多的20个sql
            mysqldumpslow -t 10 -s t -g "left join" host-slow.log # 按照时间返回前10条里面含有左连接的sql语句

            show global status like '%slow%';                     # 查看现在这个session有多少个慢查询
            show variables like '%slow%';                         # 查看慢查询日志是否开启,如果slow_query_log和log_slow_queries显示为on,说明服务器的慢查询日志已经开启
            show variables like '%long%';                         # 查看超时阀值
            desc select * from wei where text='xishizhaohua'\G;   # 扫描整张表 tepe:ALL  没有使用索引 key:NULL
            create index text_index on wei(text);                 # 创建索引

        }

        Percona Toolkit 慢日志分析工具

    }

    mysql操作次数查询{

        select * from information_schema.global_status;

        com_select
        com_delete
        com_insert
        com_update

    }

}

mongodb{

    # mongo可视管理工具 studio 3t  

    一、启动{

        # 不启动认证
        ./mongod --port 27017 --fork --logpath=/opt/mongodb/mongodb.log --logappend --dbpath=/opt/mongodb/data/
        # 启动认证
        ./mongod --port 27017 --fork --logpath=/opt/mongodb/mongodb.log --logappend --dbpath=/opt/mongodb/data/ --auth

        # 配置文件方式启动
        cat /opt/mongodb/mongodb.conf
          port=27017                       # 端口号
          fork=true                        # 以守护进程的方式运行,创建服务器进程
          auth=true                        # 开启用户认证
          logappend=true                   # 日志采用追加方式
          logpath=/opt/mongodb/mongodb.log # 日志输出文件路径
          dbpath=/opt/mongodb/data/        # 数据库路径
          shardsvr=true                    # 设置是否分片
          maxConns=600                     # 数据库的最大连接数
        ./mongod -f /opt/mongodb/mongodb.conf

        # 其他参数
        bind_ip         # 绑定IP  使用mongo登录需要指定对应IP
        journal         # 开启日志功能,降低单机故障的恢复时间,取代dur参数
        syncdelay       # 系统同步刷新磁盘的时间,默认60秒
        directoryperdb  # 每个db单独存放目录,建议设置.与mysql独立表空间类似
        repairpath      # 执行repair时的临时目录.如果没开启journal,出现异常重启,必须执行repair操作
        # mongodb没有参数设置内存大小.使用os mmap机制缓存数据文件,在数据量不超过内存的情况下,效率非常高.数据量超过系统可用内存会影响写入性能

    }

    二、关闭{

        # 方法一:登录mongodb
        ./mongo
        use admin
        db.shutdownServer()

        # 方法:kill传递信号  两种皆可
        kill -2 pid
        kill -15 pid

    }

    三、开启认证与用户管理{

        ./mongo                      # 先登录
        use admin                    # 切换到admin库
        db.addUser("root","123456")                     # 创建用户
        db.addUser('zhansan','pass',true)               # 如果用户的readOnly为true那么这个用户只能读取数据,添加一个readOnly用户zhansan
        ./mongo 127.0.0.1:27017/mydb -uroot -p123456    # 再次登录,只能针对用户所在库登录
        #虽然是超级管理员,但是admin不能直接登录其他数据库,否则报错
        #Fri Nov 22 15:03:21.886 Error: 18 { code: 18, ok: 0.0, errmsg: "auth fails" } at src/mongo/shell/db.js:228
        show collections                                # 查看链接状态 再次登录使用如下命令,显示错误未经授权
        db.system.users.find();                         # 查看创建用户信息
        db.system.users.remove({user:"zhansan"})        # 删除用户

        #恢复密码只需要重启mongodb 不加--auth参数

    }

    四、登录{

        192.168.1.5:28017      # http登录后可查看状态
        mongo                  # 默认登录后打开 test 库
        mongo 192.168.1.5:27017/databaseName      # 直接连接某个库 不存在则创建  启动认证需要指定对应库才可登录

    }

    五、查看状态{

        #登录后执行命令查看状态
        db.runCommand({"serverStatus":1})
            globalLock         # 表示全局写入锁占用了服务器多少时间(微秒)
            mem                # 包含服务器内存映射了多少数据,服务器进程的虚拟内存和常驻内存的占用情况(MB)
            indexCounters      # 表示B树在磁盘检索(misses)和内存检索(hits)的次数.如果这两个比值开始上升,就要考虑添加内存了
            backgroudFlushing  # 表示后台做了多少次fsync以及用了多少时间
            opcounters         # 包含每种主要擦撞的次数
            asserts            # 统计了断言的次数

        #状态信息从服务器启动开始计算,如果过大就会复位,发送复位,所有计数都会复位,asserts中的roolovers值增加

        #mongodb自带的命令
        ./mongostat
            insert     #每秒插入量
            query      #每秒查询量
            update     #每秒更新量
            delete     #每秒删除量
            locked     #锁定量
            qr|qw      #客户端查询排队长度(读|写)
            ar|aw      #活跃客户端量(读|写)
            conn       #连接数
            time       #当前时间

        mongostat -h 127.0.0.1 --port 27047 --authenticationDatabase admin -u zadmin -p Keaphh9e    # 查看mongo状态
        mongotop  -h 127.0.0.1 --port 27047 --authenticationDatabase admin -u zadmin -p Keaphh9e    # 查看mongo集合的统计数据

    }

    六、常用命令{

        db.listCommands()     # 当前MongoDB支持的所有命令(同样可通过运行命令db.runCommand({"listCommands" : `1})来查询所有命令)

        db.runCommand({"buildInfo" : 1})                                  # 返回MongoDB服务器的版本号和服务器OS的相关信息
        db.runCommand({"collStats" : tablename})                          # 返回该集合的统计信息,包括数据大小,已分配存储空间大小,索引的大小等
        db.runCommand({"dropDatabase" : 1})                               # 清空当前数据库的信息,包括删除所有的集合和索引
        db.runCommand({"isMaster" : 1})                                   # 检查本服务器是主服务器还是从服务器
        db.runCommand({"ping" : 1})                                       # 检查服务器链接是否正常。即便服务器上锁,该命令也会立即返回
        db.runCommand({"repaireDatabase" : 1})                            # 对当前数据库进行修复并压缩,如果数据库特别大,这个命令会非常耗时
        db.runCommand({"serverStatus" : 1})                               # 查看这台服务器的管理统计信息
        # 某些命令必须在admin数据库下运行,如下两个命令:
        db.runCommand({"renameCollection" : 集合名, "to":集合名})          # 对集合重命名,注意两个集合名都要是完整的集合命名空间,如foo.bar, 表示数据库foo下的集合bar。
        db.runCommand({"listDatabases" : 1})                              # 列出服务器上所有的数据库

        mongo  172.20.20.1:27072/mdb --eval "db.tb.count();"              # shell执行mongo语句
        mongo --host  172.20.20.1 --port 27049

        rs.config();                                                      # 查看集群配置
        rs.status();                                                      # 查看集群节点的状态
        db.currentOp()                                                    # 获取当前正在执行的操作,可对应命令链接到ip:port
        db.runCommand( { logRotate : 1 } )                                # 日志轮转
        rs.slaveOk()                                                      # 设置从库shell可读
        rs.addArb("172.16.10.199:27020");                                 # 添加仲裁节点
        rs.add({host: "10.2.2.2:27047", priority: 0, hidden: true})       # 添加从节点 hidden true隐藏节点[priority必须为0]  false不隐藏
        rs.remove("172.20.80.216:27047");                                 # 删除节点
        rs.stepDown(120)                                                  # 主库上执行切换为从,120秒后切换回主
        show dbs                                                          # 查询db
        use post                                                          # 选择db
        show tables                                                       # 查看文档列表
        db.tb.drop()                                                      # 删除集合 需要权限
        db.tb.remove({})                                                  # 删除所有数据
        db.tb.count()                                                     # 查询文档条数
        db.tb.find()                                                      # 查看文档内容
        db.tb.find({_id:37530555})                                        # 查询指定id
        db.tb.find().sort({_id:-1}).limit(1)                              # 查询文档最后一条
        db.tb.find({"processed" : {"$ne" : true}}).limit(1);              # 字段不为 true
        db.tb.find({"processed" : {"$eq" : true}}).limit(1);              # 字段为 true
        db.tb.find({"processed" : {"$exists" : false}}).limit(1);         # 字段不存在

        db.tb.ensureIndex({"status":1}, {background:true})                # 后台加索引
        db.tb.getIndexes()                                                # 查看索引
        db.tb.ensureIndex({"c_type":1},{backgrounnd:true})                # 后台添加索引  1正向  -1反向
        db.tb.dropIndex({"c_type":1});                                    # 删除索引

    }

    七、进程控制{

        db.currentOp()                  # 查看活动进程
        db.$cmd.sys.inprog.findOne()    # 查看活动进程 与上面一样
            opid      # 操作进程号
            op        # 操作类型(查询\更新)
            ns        # 命名空间,指操作的是哪个对象
            query     # 如果操作类型是查询,这里将显示具体的查询内容
            lockType  # 锁的类型,指明是读锁还是写锁

        db.killOp(opid值)                         # 结束进程
        db.$cmd.sys.killop.findOne({op:opid值})   # 结束进程

    }

    八、备份还原{
        # mongodump 虽然能不停机备份,但是为了获取实时数据视图的能力,使用fsync命令能在运行时复制数据目录并且不会损坏数据
        # fsync会强制服务器将所有缓冲区的数据写入磁盘.配合lock还阻止对数据库的进一步写入,知道释放锁为止
        db.runCommand({"fsync":1,"lock":1})   # 执行强制更新与写入锁
        db.$cmd.sys.unlock.findOne()          # 解锁
        db.currentOp()                        # 查看解锁是否正常

        mongoexport -d test -c t1 -o t1.dat                 # 导出JSON格式
            -c         # 指明导出集合
            -d         # 使用库
        mongoexport -d test -c t1 -csv -f num -o t1.dat     # 导出csv格式
            -csv       # 指明导出csv格式
            -f         # 指明需要导出那些例

        mongoimport -d test -c t1 -file t1.dat                           # mongoimport还原JSON格式
        mongoimport -d test -c t1 -type csv --headerline -file t1.dat    # mongoimport还原csv格式数据
            --headerline                # 指明不导入第一行 因为第一行是列名

        mongodump -d test -o /bak/mongodump                # mongodump数据备份
        mongorestore -d test --drop /bak/mongodump/*       # mongorestore恢复
            --drop      # 恢复前先删除
            --gzip      # 压缩

        # 备份一个表
        # --excludeCollection string # 排除指定的集合 要排除多个,使用多个
        mongodump --host 127.0.0.1:27080 -d dbname  -c tablename  -o /data/reports/
        mongodump --host 127.0.0.1:27080 -d dbname  -c tablename  -o /data/reports/reports  -u root -p tAvaa5yNUE --authenticationDatabase admin

        # 恢复一个表
        mongorestore --host 127.0.0.1:27080 -d dbname  -c tablename --drop --dir=/data/reports/tablename.bson

        # 在线拷贝一个库
        db.copyDatabase(fromdb, todb, fromhost, username, password, mechanism)
        db.copyDatabase('mate','mate', '172.16.255.176:27047')

    }

    九、修复{

        # 当停电或其他故障引起不正常关闭时,会造成部分数据损坏丢失
        mongod --repair      # 修复操作:启动时候加上 --repair
        # 修复过程:将所有文档导出,然后马上导入,忽略无效文档.完成后重建索引。时间较长,会丢弃损坏文档
        # 修复数据还能起到压缩数据库的作用
        db.repairDatabase()    # 运行中的mongodb可使用 repairDatabase 修复当前使用的数据库
        {"repairDatabase":1}   # 通过驱动程序

    }

    十、python使用mongodb{

        原文: http://blog.nosqlfan.com/html/2989.html

        easy_install pymongo      # python2.7+
        import pymongo
        connection=pymongo.Connection('localhost',27017)   # 创建连接
        db = connection.test_database                      # 切换数据库
        collection = db.test_collection                    # 获取collection
        # db和collection都是延时创建的,在添加Document时才真正创建

        文档添加, _id自动创建
            import datetime
            post = {"author": "Mike",
                "text": "My first blog post!",
                "tags": ["mongodb", "python", "pymongo"],
                "date": datetime.datetime.utcnow()}
            posts = db.posts
            posts.insert(post)
            ObjectId('...')

        批量插入
            new_posts = [{"author": "Mike",
                "text": "Another post!",
                "tags": ["bulk", "insert"],
                "date": datetime.datetime(2009, 11, 12, 11, 14)},
                {"author": "Eliot",
                "title": "MongoDB is fun",
                "text": "and pretty easy too!",
                "date": datetime.datetime(2009, 11, 10, 10, 45)}]
            posts.insert(new_posts)
            [ObjectId('...'), ObjectId('...')]

        获取所有collection
            db.collection_names()    # 相当于SQL的show tables

        获取单个文档
            posts.find_one()

        查询多个文档
            for post in posts.find():
                post

        加条件的查询
            posts.find_one({"author": "Mike"})

        高级查询
            posts.find({"date": {"$lt": "d"}}).sort("author")

        统计数量
            posts.count()

        加索引
            from pymongo import ASCENDING, DESCENDING
            posts.create_index([("date", DESCENDING), ("author", ASCENDING)])

        查看查询语句的性能
            posts.find({"date": {"$lt": "d"}}).sort("author").explain()["cursor"]
            posts.find({"date": {"$lt": "d"}}).sort("author").explain()["nscanned"]

    }

}

JDK安装{

    vim /etc/profile.d/jdk.sh
    export JAVA_HOME=/usr/local/jdk1.8.0_151
    export PATH=$JAVA_HOME/bin:$PATH

    . /etc/profile         # 加载新的环境变量
    jps -ml                # 查看java进程
    jstat -gc 18381 1s 30  # 查看java进程gc情况
}

redis动态加内存{

    ./redis-cli -h 10.10.10.11 -p 6401
    save                                # 保存当前快照
    config get *                        # 列出所有当前配置
    config get maxmemory                # 查看指定配置
    config set maxmemory  15360000000   # 动态修改最大内存配置参数

}

nfs{

    # 依赖rpc服务通信 portmap[centos5] 或 rpcbind[centos6]
    yum install nfs-utils portmap    # centos5安装
    yum install nfs-utils rpcbind    # centos6安装

    vim /etc/exports                 # 配置文件
    # sync                           # 同步写入
    # async                          # 暂存并非直接写入
    # no_root_squash                 # 开放用户端使用root身份操作
    # root_squash                    # 使用者身份为root则被压缩成匿名使用,即nobody,相对安全
    # all_squash                     # 所有NFS的使用者身份都被压缩为匿名
    /data/images 10.10.10.0/24(rw,sync,no_root_squash)

    service  portmap restart         # 重启centos5的nfs依赖的rpc服务
    service  rpcbind restart         # 重启centos6的nfs依赖的rpc服务
    service  nfs restart             # 重启nfs服务  确保依赖 portmap 或 rpcbind 服务已启动
    service  nfs reload              # 重载NFS服务配置文件
    showmount -e                     # 服务端查看自己共享的服务
    showmount -a                     # 显示已经与客户端连接上的目录信息
    showmount -e 10.10.10.3          # 列出服务端可供使用的NFS共享  客户端测试能否访问nfs服务
    mount -t nfs 10.10.10.3:/data/images/  /data/img   # 挂载nfs  如果延迟影响大加参数 noac

    # 服务端的 portmap 或 rpcbind 被停止后,nfs仍然工作正常,但是umout财会提示: not found / mounted or server not reachable  重启服务器的portmap 或 rpcbind 也无济于事。 nfs也要跟着重启,否则nfs工作仍然是不正常的。
    # 同时已挂载会造成NFS客户端df卡住和挂载目录无法访问。请先用 mount 查看当前挂载情况,记录挂载信息,在强制卸载挂载目录,重新挂载
    umount -f /data/img/             # 强制卸载挂载目录  如还不可以  umount -l /data/img/

    nfsstat -c                       # 客户机发送和拒绝的RPC和NFS调用数目的信息
    nfsstat -cn                      # 显示和打印与客户机NFS调用相关的信息
    nfsstat -r                       # 显示和打印客户机和服务器的与RPC调用相关的信息
    nfsstat –s                       # 显示关于服务器接收和拒绝的RPC和NFS调用数目的信息

}

hdfs{
    hdfs --help                  # 所有参数

    hdfs dfs -help               # 运行文件系统命令在Hadoop文件系统
    hdfs dfs -ls /logs           # 查看
    hdfs dfs -ls /user/          # 查看用户
    hdfs dfs -cat
    hdfs dfs -df
    hdfs dfs -du
    hdfs dfs -rm
    hdfs dfs -tail
    hdfs dfs –put localSrc dest  # 上传文件

    hdfs dfsadmin -help          # hdfs集群节点管理
    hdfs dfsadmin -report        # 基本的文件系统统计信息
}

}

5 网络{

rz                                                                    # 通过ssh上传小文件
sz                                                                    # 通过ssh下载小文件
ifconfig eth0 down                                                    # 禁用网卡
ifconfig eth0 up                                                      # 启用网卡
ifup eth0:0                                                           # 启用网卡
mii-tool em1                                                          # 查看网线是否连接
traceroute www.baidu.com                                              # 测试跳数
vi /etc/resolv.conf                                                   # 设置DNS  nameserver IP 定义DNS服务器的IP地址
nslookup www.moon.com                                                 # 解析域名IP
dig -x www.baidu.com                                                  # 解析域名IP
dig +trace -t A domainname                                            # 跟踪dns
dig +short txt hacker.wp.dg.cx                                        # 通过 DNS 来读取 Wikipedia 的hacker词条
host -t txt hacker.wp.dg.cx                                           # 通过 DNS 来读取 Wikipedia 的hacker词条
lynx                                                                  # 文本上网
wget -P path -O name url                                              # 下载  包名:wgetrc   -q 安静 -c 续传
dhclient eth1                                                         # 自动获取IP
mtr -r www.baidu.com                                                  # 测试网络链路节点响应时间 # trace ping 结合
ipcalc -m "$ip" -p "$num"                                             # 根据IP和主机最大数计算掩码
curl -I www.baidu.com                                                 # 查看网页http头
curl -s www.baidu.com                                                 # 不显示进度
queryperf -d list -s DNS_IP -l 2                                      # BIND自带DNS压力测试  [list 文件格式:www.turku.fi A]
telnet ip port                                                        # 测试端口是否开放,有些服务可直接输入命令得到返回状态
echo "show " |nc $ip $port                                            # 适用于telnet一类登录得到命令返回
nc -l -p port                                                         # 监听指定端口
nc -nv -z 10.10.10.11 1080 |grep succeeded                            # 检查主机端口是否开放
curl -o /dev/null -s -m 10 --connect-timeout 10 -w %{http_code} $URL  # 检查页面状态
curl -X POST -d "user=xuesong&pwd=123" http://www.abc.cn/Result       # 提交POST请求
curl -s http://20140507.ip138.com/ic.asp                              # 通过IP138取本机出口外网IP
curl http://IP/ -H "X-Forwarded-For: ip" -H "Host: www.ttlsa.com"     # 连到指定IP的响应主机,HTTPserver只看 Host字段
ifconfig eth0:0 192.168.1.221 netmask 255.255.255.0                   # 增加逻辑IP地址
echo 1 > /proc/sys/net/ipv4/icmp_echo_ignore_all                      # 禁ping
net rpc shutdown -I IP_ADDRESS -U username%password                   # 远程关掉一台WINDOWS机器
wget --random-wait -r -p -e robots=off -U Mozilla www.example.com     # 递归方式下载整个网站
sshpass -p "$pwd" rsync -avzP /dir  user@$IP:/dir/                    # 指定密码避免交互同步目录
rsync -avzP --delete /dir/ user@$IP:/dir/                             # 无差同步目录 可以快速清空大目录,末尾带/同步目录
rsync -avzP -e "ssh -p 22 -e -o StrictHostKeyChecking=no" /dir user@$IP:/dir         # 指定ssh参数同步

抓包{

    -i eth1                             # 只抓经过接口eth1的包
    -t                                  # 不显示时间戳
    -s 0                                # 抓取数据包时默认抓取长度为68字节。加上-S 0 后可以抓到完整的数据包
    -c 100                              # 只抓取100个数据包
    dst port ! 22                       # 不抓取目标端口是22的数据包
    tcpdump tcp port 22                 # 抓包
    tcpdump -n -vv udp port 53          # 抓udp的dns包 并显示ip
    tcpdump port 10001 -A -s0           # 完整显示ascii数据包
    tcpdump -i any  host x.x.x.x -s 0 -w /tmp/cap.pcap   # 对端ip
    tcpdump -i any -s 0 host 172.20.81.107 or host 172.16.3.72 -C 50 -W 5 -w /tmp/20190122ng.cap

}


一次短链接失败故障定位{

    # php和python程序调用接口,通过阿里云slb,到后端nginx,偶尔超时,后端nginx无请求,怀疑没到nginx,但通过检查,无法与nginx建立tcp链接
    ss -nl |grep :80  # 查看 accept 队列值,短连接应该大一点
    watch -n 1 'nstat -z -t 1 | grep -e TcpActiveOpens -e TcpExtListenOverflows -e TcpAttemptFails -e TcpPassiveOpen -e TcpExtTCPSynRetrans -e TcpRetransSegs  -e TcpOutSegs -e TcpInSegs'

    TcpAttemptFails         TCP建立链接失败,包括前后端
    TcpExtTCPSynRetrans     TCP向后端建立链接失败


    # nginx 和内核都需要调整才生效,程序监听端口,需要加socket参数
    listen 10.87.128.29:51528 default_server backlog=4096;


    https://m.aliyun.com/yunqi/articles/118472?spm=5176.8091938.0.0.11e86ccF4oOeZ
}

网卡流量查看{

    watch more /proc/net/dev    # 实时监控流量文件系统 累计值
    iptraf                      # 网卡流量查看工具
    nethogs -d 5 eth0 eth1      # 按进程实时统计网络流量 epel源nethogs
    iftop -i eth0 -n -P         # 实时流量监控

    sar {
        -n参数有6个不同的开关: DEV | EDEV | NFS | NFSD | SOCK | ALL
        DEV显示网络接口信息
        EDEV显示关于网络错误的统计数据
        NFS统计活动的NFS客户端的信息
        NFSD统计NFS服务器的信息
        SOCK显示套 接字信息
        ALL显示所有5个开关

        sar -n DEV 1 10

        rxpck/s   # 每秒钟接收的数据包
        txpck/s   # 每秒钟发送的数据包
        rxbyt/s   # 每秒钟接收的字节数
        txbyt/s   # 每秒钟发送的字节数
        rxcmp/s   # 每秒钟接收的压缩数据包
        txcmp/s   # 每秒钟发送的压缩数据包
        rxmcst/s  # 每秒钟接收的多播数据包

    }

}

netstat{

    # 几十万并发的情况下netstat会没有响应,建议使用 ss 命令
    -a     # 显示所有连接中的Socket
    -t     # 显示TCP连接
    -u     # 显示UDP连接
    -n     # 显示所有已建立的有效连接
    netstat -anlp           # 查看链接
    netstat -tnlp           # 只查看tcp监听端口
    netstat -r              # 查看路由表
}

ss{

    # netstat是遍历/proc下面每个PID目录,ss直接读/proc/net下面的统计信息。所以ss执行的时候消耗资源以及消耗的时间都比netstat少很多
    ss -s                          # 列出当前socket详细信息
    ss -l                          # 显示本地打开的所有端口
    ss -tnlp                       # 显示每个进程具体打开的socket
    ss -ant                        # 显示所有TCP socket
    ss -u -a                       # 显示所有UDP Socekt
    ss dst 192.168.119.113         # 匹配远程地址
    ss dst 192.168.119.113:http    # 匹配远程地址和端口号
    ss dst 192.168.119.113:3844    # 匹配远程地址和端口号
    ss src 192.168.119.103:16021   # 匹配本地地址和端口号
    ss -o state established '( dport = :smtp or sport = :smtp )'        # 显示所有已建立的SMTP连接
    ss -o state established '( dport = :http or sport = :http )'        # 显示所有已建立的HTTP连接
    ss -x src /tmp/.X11-unix/*         # 找出所有连接X服务器的进程

}

并发数查看{

    netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
    SYN_RECV     # 正在等待处理的请求
    ESTABLISHED  # 正常数据传输状态,既当前并发数
    TIME_WAIT    # 处理完毕,等待超时结束的请求
    CLOSE_WAIT   # 客户端异常关闭,没有完成4次挥手  如大量可能存在攻击行为

}

ssh{

    ssh -p 22 user@192.168.1.209                            # 从linux ssh登录另一台linux
    ssh -p 22 root@192.168.1.209 CMD                        # 利用ssh操作远程主机
    scp -P 22 file root@ip:/dir                             # 把本地文件拷贝到远程主机
    scp -l 100000  file root@ip:/dir                        # 传输文件到远程,限制速度100M
    sshpass -p 'pwd' ssh -n root@$IP "echo hello"           # 指定密码远程操作
    ssh -o StrictHostKeyChecking=no $IP                     # ssh连接不提示yes
    ssh -t "su -"                                           # 指定伪终端 客户端以交互模式工作
    scp root@192.168.1.209:/RemoteDir /localDir             # 把远程指定文件拷贝到本地
    pscp -h host.ip /a.sh /opt/sbin/                        # 批量传输文件
    ssh -N -L2001:remotehost:80 user@somemachine            # 用SSH创建端口转发通道
    ssh -t host_A ssh host_B                                # 嵌套使用SSH
    ssh -t -p 22 $user@$Ip /bin/su - root -c {$Cmd};        # 远程su执行命令 Cmd="\"/sbin/ifconfig eth0\""
    ssh-keygen -t rsa                                       # 生成密钥
    ssh-copy-id -i xuesong@10.10.10.133                     # 传送key
    vi $HOME/.ssh/authorized_keys                           # 公钥存放位置
    sshfs name@server:/path/to/folder /path/to/mount/point  # 通过ssh挂载远程主机上的文件夹
    fusermount -u /path/to/mount/point                      # 卸载ssh挂载的目录
    ssh user@host cat /path/to/remotefile | diff /path/to/localfile -                # 用DIFF对比远程文件跟本地文件
    su - user -c "ssh user@192.168.1.1 \"echo -e aa |mail -s test mail@163.com\""    # 切换用户登录远程发送邮件
    pssh -h ip.txt -i uptime                                # 批量执行ssh yum install pssh

    SSH反向连接{

        # 外网A要控制内网B

        ssh -NfR 1234:localhost:2223 user1@123.123.123.123 -p22    # 将A主机的1234端口和B主机的2223端口绑定,相当于远程端口映射
        ss -ant   # 这时在A主机上sshd会listen本地1234端口
        # LISTEN     0    128    127.0.0.1:1234       *:*
        ssh localhost -p1234    # 在A主机连接本地1234端口

    }
}

网卡配置文件{

    vi /etc/sysconfig/network-scripts/ifcfg-eth0

    DEVICE=eth0
    BOOTPROTO=none
    BROADCAST=192.168.1.255
    HWADDR=00:0C:29:3F:E1:EA
    IPADDR=192.168.1.55
    NETMASK=255.255.255.0
    NETWORK=192.168.1.0
    ONBOOT=yes
    TYPE=Ethernet
    GATEWAY=192.168.1.1
    #ARPCHECK=no     # 进制arp检查

}

route {

    route                           # 查看路由表
    route add default  gw 192.168.1.1  dev eth0                        # 添加默认路由
    route add -net 172.16.0.0 netmask 255.255.0.0 gw 10.39.111.254     # 添加静态路由网关
    route del -net 172.16.0.0 netmask 255.255.0.0 gw 10.39.111.254     # 删除静态路由网关

}

静态路由{

    vim /etc/sysconfig/static-routes
    any net 192.168.12.0/24 gw 192.168.0.254
    any net 192.168.13.0/24 gw 192.168.0.254

}

解决ssh链接慢{

    sed -i 's/GSSAPIAuthentication yes/GSSAPIAuthentication no/' /etc/ssh/sshd_config
    sed -i '/#UseDNS yes/a\UseDNS no' /etc/ssh/sshd_config
    /etc/init.d/sshd reload

}

nmap{

    nmap -PT 192.168.1.1-111             # 先ping在扫描主机开放端口
    nmap -O 192.168.1.1                  # 扫描出系统内核版本
    nmap -sV 192.168.1.1-111             # 扫描端口的软件版本
    nmap -sS 192.168.1.1-111             # 半开扫描(通常不会记录日志)
    nmap -P0 192.168.1.1-111             # 不ping直接扫描
    nmap -d 192.168.1.1-111              # 详细信息
    nmap -D 192.168.1.1-111              # 无法找出真正扫描主机(隐藏IP)
    nmap -p 20-30,139,60000-             # 端口范围  表示:扫描20到30号端口,139号端口以及所有大于60000的端口
    nmap -P0 -sV -O -v 192.168.30.251    # 组合扫描(不ping、软件版本、内核版本、详细信息)

    # 不支持windows的扫描(可用于判断是否是windows)
    nmap -sF 192.168.1.1-111
    nmap -sX 192.168.1.1-111
    nmap -sN 192.168.1.1-111

}

流量切分线路{

    # 程序判断进入IP线路,设置服务器路由规则控制返回
    vi /etc/iproute2/rt_tables
    #添加一条策略
    252   bgp2  #注意策略的序号顺序
    ip route add default via 第二个出口上线IP(非默认网关) dev eth1 table bgp2
    ip route add from 本机第二个ip table bgp2
    #查看
    ip route list table 252
    ip rule list
    #成功后将语句添加开机启动

}

snmp{

    snmptranslate .1.3.6.1.2.1.1.3.0    # 查看映射关系
        DISMAN-EVENT-MIB::sysUpTimeInstance
    snmpdf -v 1 -c public localhost                            # SNMP监视远程主机的磁盘空间
    snmpnetstat -v 2c -c public -a 192.168.6.53                # SNMP获取指定IP的所有开放端口状态
    snmpwalk -v 2c -c public 10.152.14.117 .1.3.6.1.2.1.1.3.0  # SNMP获取主机启动时间
    # MIB安装(ubuntu)
    # sudo apt-get install snmp-mibs-downloader
    # sudo download-mibs
    snmpwalk -v 2c -c public 10.152.14.117 sysUpTimeInstance   # SNMP通过MIB库获取主机启动时间

}

TC流量控制{

    # 针对ip段下载速率控制
    tc qdisc del dev eth0 root handle 1:                                                              # 删除控制1:
    tc qdisc add dev eth0 root handle 1: htb r2q 1                                                    # 添加控制1:
    tc class add dev eth0 parent 1: classid 1:1 htb rate 12mbit ceil 15mbit                           # 设置速率
    tc filter add dev eth0 parent 1: protocol ip prio 16 u32 match ip dst 10.10.10.1/24 flowid 1:1    # 指定ip段控制规则

    # 检查命令
    tc -s -d qdisc show dev eth0
    tc class show dev eth0
    tc filter show dev eth0

    限制上传下载{

        tc qdisc del dev tun0 root
        tc qdisc add dev tun0 root handle 2:0 htb
        tc class add dev tun0 parent 2:1 classid 2:10 htb rate 30kbps
        tc class add dev tun0 parent 2:2 classid 2:11 htb rate 30kbps
        tc qdisc add dev tun0 parent 2:10 handle 1: sfq perturb 1
        tc filter add dev tun0 protocol ip parent 2:0 u32 match ip dst 10.18.0.0/24 flowid 2:10
        tc filter add dev tun0 parent ffff: protocol ip u32 match ip src 10.18.0.0/24 police rate 30kbps burst 10k drop flowid 2:11


        tc qdisc del dev tun0 root                                     # 删除原有策略
        tc qdisc add dev tun0 root handle 2:0 htb                      # 定义最顶层(根)队列规则,并指定 default 类别编号,为网络接口 eth1 绑定一个队列,类型为 htb,并指定了一个 handle 句柄 2:0 用于标识它下面的子类
        tc class add dev tun0 parent 2:1 classid 2:10 htb rate 30kbps  # 设置一个规则速度是30kbps
        tc class add dev tun0 parent 2:2 classid 2:11 htb rate 30kbps
        tc qdisc add dev tun0 parent 2:10 handle 1: sfq perturb 1      # 调用随机公平算法
        tc filter add dev tun0 protocol ip parent 2:0 u32 match ip dst 10.18.0.0/24 flowid 2:10  # 规则2:10应用在目标地址上,即下载
        tc filter add dev tun0 parent ffff: protocol ip u32 match ip src 10.18.0.0/24 police rate 30kbps burst 10k drop flowid 2:11 # 上传限速

    }

}

}

6 磁盘{

df -Ph                                          # 查看硬盘容量
df -T                                           # 查看磁盘分区格式
df -i                                           # 查看inode节点   如果inode用满后无法创建文件
du -h dir                                       # 检测目录下所有文件大小
du -sh *                                        # 显示当前目录中子目录的大小
mount -l                                        # 查看分区挂载情况
fdisk -l                                        # 查看磁盘分区状态
fdisk /dev/hda3                                 # 分区
mkfs -t ext4  /dev/hda3                         # 格式化分区
fsck -y /dev/sda6                               # 对文件系统修复
lsof |grep delete                               # 释放进程占用磁盘空间  列出进程后,查看文件是否存在,不存在则kill掉此进程
tmpwatch -afv 10   /tmp                         # 删除10小时内未使用的文件  勿在重要目录使用
cat /proc/filesystems                           # 查看当前系统支持文件系统
mount -o remount,rw /                           # 修改只读文件系统为读写
iotop                                           # 进程占用磁盘IO情况   yum install iotop
smartctl -H /dev/sda                            # 检测硬盘状态  # yum install smartmontools
smartctl -i /dev/sda                            # 检测硬盘信息
smartctl -a /dev/sda                            # 检测所有信息
e2label /dev/sda5                               # 查看卷标
e2label /dev/sda5 new-label                     # 创建卷标
ntfslabel -v /dev/sda8 new-label                # NTFS添加卷标
tune2fs -j /dev/sda                             # ext2分区转ext3分区
tune2fs -l /dev/sda                             # 查看文件系统信息
mke2fs -b 2048 /dev/sda5                        # 指定索引块大小
dumpe2fs -h /dev/sda5                           # 查看超级块的信息
mount -t iso9660 /dev/dvd  /mnt                 # 挂载光驱
mount -t ntfs-3g /dev/sdc1 /media/yidong        # 挂载ntfs硬盘
mount -t nfs 10.0.0.3:/opt/images/  /data/img   # 挂载nfs 需要重载 /etc/init.d/nfs reload  重启需要先启动 portmap 服务
mount -o loop  /software/rhel4.6.iso   /mnt/    # 挂载镜像文件

磁盘IO性能检测{

    iostat -x 1 10

    % user       # 显示了在用户级(应用程序)执行时生成的 CPU 使用率百分比。
    % system     # 显示了在系统级(内核)执行时生成的 CPU 使用率百分比。
    % idle       # 显示了在 CPU 空闲并且系统没有未完成的磁盘 I/O 请求时的时间百分比。
    % iowait     # 显示了 CPU 空闲期间系统有未完成的磁盘 I/O 请求时的时间百分比。

    rrqm/s       # 每秒进行 merge 的读操作数目。即 delta(rmerge)/s
    wrqm/s       # 每秒进行 merge 的写操作数目。即 delta(wmerge)/s
    r/s          # 每秒完成的读 I/O 设备次数。即 delta(rio)/s
    w/s          # 每秒完成的写 I/O 设备次数。即 delta(wio)/s
    rsec/s       # 每秒读扇区数。即 delta(rsect)/s
    wsec/s       # 每秒写扇区数。即 delta(wsect)/s
    rkB/s        # 每秒读K字节数。是 rsect/s 的一半,因为每扇区大小为512字节。(需要计算)
    wkB/s        # 每秒写K字节数。是 wsect/s 的一半。(需要计算)
    avgrq-sz     # 平均每次设备I/O操作的数据大小 (扇区)。delta(rsect+wsect)/delta(rio+wio)
    avgqu-sz     # 平均I/O队列长度。即 delta(aveq)/s/1000 (因为aveq的单位为毫秒)。
    await        # 平均每次设备I/O操作的等待时间 (毫秒)。即 delta(ruse+wuse)/delta(rio+wio)
    svctm        # 平均每次设备I/O操作的服务时间 (毫秒)。即 delta(use)/delta(rio+wio)
    %util        # 一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的。即 delta(use)/s/1000 (因为use的单位为毫秒)

    IO性能衡量标准{

        1、 如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。
        2、 idle 小于70% IO压力就较大了,一般读取速度有较多的wait.
        3、 同时可以结合 vmstat 查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)
        4、 svctm 一般要小于 await (因为同时等待的请求的等待时间被重复计算了),svctm 的大小一般和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多也会间接导致 svctm 的增加. await 的大小一般取决于服务时间(svctm) 以及 I/O 队列的长度和 I/O 请求的发出模式. 如果 svctm 比较接近 await,说明 I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 CPU
        5、 队列长度(avgqu-sz)也可作为衡量系统 I/O 负荷的指标,但由于 avgqu-sz 是按照单位时间的平均值,所以不能反映瞬间的 I/O 洪水。

    }

}

iotop{

    # 监视进程磁盘I/O

    yum install iotop

    -o        # 只显示有io操作的进程
    -b        # 批量显示,无交互,主要用作记录到文件。
    -n NUM    # 显示NUM次,主要用于非交互式模式。
    -d SEC    # 间隔SEC秒显示一次。
    -p PID    # 监控的进程pid。
    -u USER   # 监控的进程用户。

    # 左右箭头:改变排序方式,默认是按IO排序。
    r         # 改变排序顺序。
    o         # 只显示有IO输出的进程。
    p         # 进程/线程的显示方式的切换。
    a         # 显示累积使用量。
    q         # 退出。

}

创建swap文件方法{

    dd if=/dev/zero of=/swap bs=1024 count=4096000            # 创建一个足够大的文件
    # count的值等于1024 x 你想要的文件大小, 4096000是4G
    mkswap /swap                      # 把这个文件变成swap文件
    swapon /swap                      # 启用这个swap文件
    /swap swap swap defaults 0 0      # 在每次开机的时候自动加载swap文件, 需要在 /etc/fstab 文件中增加一行
    cat /proc/swaps                   # 查看swap
    swapoff -a                        # 关闭swap
    swapon -a                         # 开启swap

}

新硬盘挂载{

    fdisk /dev/sdc
    p    #  打印分区
    d    #  删除分区
    n    #  创建分区,(一块硬盘最多4个主分区,扩展占一个主分区位置。p主分区 e扩展)
    w    #  保存退出
    mkfs.ext4 -L 卷标  /dev/sdc1            # 格式化相应分区
    mount /dev/sdc1  /mnt                  # 挂载
    vi /etc/fstab                          # 添加开机挂载分区
    LABEL=/data            /data                   ext4    defaults        1 2      # 用卷标挂载
    /dev/sdb1              /data4                  ext4    defaults        1 2      # 用真实分区挂载
    /dev/sdb2              /data4                  ext4    noatime,defaults        1 2

    第一个数字"1"该选项被"dump"命令使用来检查一个文件系统应该以多快频率进行转储,若不需要转储就设置该字段为0
    第二个数字"2"该字段被fsck命令用来决定在启动时需要被扫描的文件系统的顺序,根文件系统"/"对应该字段的值应该为1,其他文件系统应该为2。若该文件系统无需在启动时扫描则设置该字段为0
    当以 noatime 选项加载(mount)文件系统时,对文件的读取不会更新文件属性中的atime信息。设置noatime的重要性是消除了文件系统对文件的写操作,文件只是简单地被系统读取。由于写操作相对读来说要更消耗系统资源,所以这样设置可以明显提高服务器的性能.wtime信息仍然有效,任何时候文件被写,该信息仍被更新。

    mount -a    # 自动加载 fstab 文件挂载,避免配置错误,系统无法重启

}

大磁盘2T和16T分区{

    parted /dev/sdb                # 针对磁盘分区
    (parted) mklabel gpt           # 设置为 gpt
    (parted) print
    (parted) mkpart  primary 0KB 22.0TB        # 指定分区大小
    Is this still acceptable to you?
    Yes/No? Yes
    Ignore/Cancel? Ignore
    (parted) print
    Model: LSI MR9271-8i (scsi)
    Disk /dev/sdb: 22.0TB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Number  Start   End     Size    File system  Name     Flags
     1      17.4kB  22.0TB  22.0TB               primary
    (parted) quit

    mkfs.ext4 /dev/sdb1        # e2fsprogs升级后支持大于16T硬盘

    # 大于16T的单个分区ext4格式化报错,需要升级e2fsprogs
    Size of device /dev/sdb1 too big to be expressed in 32 bits using a blocksize of 4096.

    yum -y install xfsprogs
    mkfs.xfs -f /dev/sdb1              # 大于16T单个分区也可以使用XFS分区,但inode占用很大,对大量的小文件支持不太好

}

阿里云扩容磁盘{

    # 进入ECS 本实例磁盘,勾选在线扩容, 选择扩容磁盘
    yum install cloud-utils-growpart
    yum install xfsprogs
    df -h    # 查看目前分区大小
    fdisk -l # 查看磁盘设备
    growpart /dev/vda 1         # 扩容分区 如果没有分区,默认整块,不需要执行
    resize2fs /dev/vda1         # 扩容文件系统 ext4文件系统 
    xfs_growfs /dev/vda1        # 扩容文件系统 xfs文件系统
    df -h                       # 再查看分区大小,是否扩容

}

raid原理与区别{

    raid0至少2块硬盘.吞吐量大,性能好,同时读写,但损坏一个就完蛋
    raid1至少2块硬盘.相当镜像,一个存储,一个备份.安全性比较高.但是性能比0弱
    raid5至少3块硬盘.分别存储校验信息和数据,坏了一个根据校验信息能恢复
    raid6至少4块硬盘.两个独立的奇偶系统,可坏两块磁盘,写性能非常差

}

}

7 用户{

users                                      # 显示所有的登录用户
groups                                     # 列出当前用户和他所属的组
who -q                                     # 显示所有的登录用户
groupadd                                   # 添加组
useradd user                               # 建立用户
passwd username                            # 修改密码
userdel -r                                 # 删除帐号及家目录
chown -R user:group                        # 修改目录拥有者(R递归)
chown y\.li:mysql                          # 修改所有者用户中包含点"."
umask                                      # 设置用户文件和目录的文件创建缺省屏蔽值
chgrp                                      # 修改用户组
finger                                     # 查找用户显示信息
echo "xuesong" | passwd user --stdin       # 非交互修改密码
useradd -g www -M  -s /sbin/nologin  www   # 指定组并不允许登录的用户,nologin允许使用服务
useradd -g www -M  -s /bin/false  www      # 指定组并不允许登录的用户,false最为严格
useradd -d /data/song -g song song         # 创建用户并指定家目录和组
usermod -l newuser olduser                 # 修改用户名
usermod -g user group                      # 修改用户所属组
usermod -d dir -m user                     # 修改用户家目录
usermod -G group user                      # 将用户添加到附加组
gpasswd -d user group                      # 从组中删除用户
su - user -c " #cmd1; "                    # 切换用户执行

恢复密码{

    # 即进入单用户模式: 在linux出现grub后,在安装的系统上面按"e",然后出现grub的配置文件,按键盘移动光标到第二行"Ker……",再按"e",然后在这一行的结尾加上:空格 single或者空格1回车,然后按"b"重启,就进入了"单用户模式"
}

特殊权限{

    s或 S (SUID):对应数值4
    s或 S (SGID):对应数值2
    t或 T :对应数值1
    大S:代表拥有root权限,但是没有执行权限
    小s:拥有特权且拥有执行权限,这个文件可以访问系统任何root用户可以访问的资源
    T或T(Sticky):/tmp和 /var/tmp目录供所有用户暂时存取文件,亦即每位用户皆拥有完整的权限进入该目录,去浏览、删除和移动文件

}

}

8 脚本{

#!/bin/sh                             # 在脚本第一行脚本头 # sh为当前系统默认shell,可指定为bash等shell
shopt                                 # 显示和设置shell中的行为选项
sh -x                                 # 执行过程
sh -n                                 # 检查语法
set -e                                # 若指令传回值不等于0,则立即退出shell
(a=bbk)                               # 括号创建子shell运行
basename /a/b/c                       # 从全路径中保留最后一层文件名或目录
dirname                               # 取路径
$RANDOM                               # 随机数
$$                                    # 进程号
source FileName                       # 在当前bash环境下读取并执行FileName中的命令  # 等同 . FileName
sleep 5                               # 间隔睡眠5秒
trap                                  # 在接收到信号后将要采取的行动
trap "" 2 3                           # 禁止ctrl+c
$PWD                                  # 当前目录
$HOME                                 # 家目录
$OLDPWD                               # 之前一个目录的路径
cd -                                  # 返回上一个目录路径
local ret                             # 局部变量
yes                                   # 重复打印
yes |rm -i *                          # 自动回答y或者其他
ls -p /home                           # 区分目录和文件夹
ls -d /home/                          # 查看匹配完整路径
time a.sh                             # 测试程序执行时间
echo -n aa;echo bb                    # 不换行执行下一句话 将字符串原样输出
echo -e "s\tss\n\n\n"                 # 使转义生效
echo $a | cut -c2-6                   # 取字符串中字元
echo {a,b,c}{a,b,c}{a,b,c}            # 排列组合(括号内一个元素分别和其他括号内元素组合)
echo $((2#11010))                     # 二进制转10进制
echo aaa | tee file                   # 打印同时写入文件 默认覆盖 -a追加
echo {1..10}                          # 打印10个字符
printf '%10s\n'|tr " " a              # 打印10个字符
pwd | awk -F/ '{ print $2 }'          # 返回目录名
tac file |sed 1,3d|tac                # 倒置读取文件  # 删除最后3行
tail -3 file                          # 取最后3行
outtmp=/tmp/$$`date +%s%N`.outtmp     # 临时文件定义
:(){ :|:& };:                         # fork炸弹,系统执行海量的进程,直到系统僵死
echo -e "\e[32mcolour\e[0m"           # 打印颜色
echo -e "\033[32mcolour\033[m"        # 打印颜色
echo -e "\033[0;31mL\033[0;32mO\033[0;33mV\033[0;34mE\t\033[0;35mY\033[0;36mO\033[0;32mU\e[m"    # 打印颜色

正则表达式{

    ^                       # 行首定位
    $                       # 行尾定位
    .                       # 匹配除换行符以外的任意字符
    *                       # 匹配0或多个重复字符
    +                       # 重复一次或更多次
    ?                       # 重复零次或一次
    ?                       # 结束贪婪因子 .*? 表示最小匹配
    []                      # 匹配一组中任意一个字符
    [^]                     # 匹配不在指定组内的字符
    \                       # 用来转义元字符
    <                       # 词首定位符(支持vi和grep)  <love
    >                       # 词尾定位符(支持vi和grep)  love>
    x\{m\}                  # 重复出现m次
    x\{m,\}                 # 重复出现至少m次
    x\{m,n\}                # 重复出现至少m次不超过n次
    X?                      # 匹配出现零次或一次的大写字母 X
    X+                      # 匹配一个或多个字母 X
    ()                      # 括号内的字符为一组
    (ab|de)+                # 匹配一连串的(最少一个) abc 或 def;abc 和 def 将匹配
    [[:alpha:]]             # 代表所有字母不论大小写
    [[:lower:]]             # 表示小写字母
    [[:upper:]]             # 表示大写字母
    [[:digit:]]             # 表示数字字符
    [[:digit:][:lower:]]    # 表示数字字符加小写字母

    元字符{

        \d       # 匹配任意一位数字
        \D       # 匹配任意单个非数字字符
        \w       # 匹配任意单个字母数字下划线字符,同义词是 [:alnum:]
        \W       # 匹配非数字型的字符

    }

    字符类:空白字符{

        \s       # 匹配任意的空白符
        \S       # 匹配非空白字符
        \b       # 匹配单词的开始或结束
        \n       # 匹配换行符
        \r       # 匹配回车符
        \t       # 匹配制表符
        \b       # 匹配退格符
        \0       # 匹配空值字符

    }

    字符类:锚定字符{

        \b       # 匹配字边界(不在[]中时)
        \B       # 匹配非字边界
        \A       # 匹配字符串开头
        \Z       # 匹配字符串或行的末尾
        \z       # 只匹配字符串末尾
        \G       # 匹配前一次m//g离开之处

    }

    捕获{

        (exp)                # 匹配exp,并捕获文本到自动命名的组里
        (?<name>exp)         # 匹配exp,并捕获文本到名称为name的组里,也可以写成(?'name'exp)
        (?:exp)              # 匹配exp,不捕获匹配的文本,也不给此分组分配组号

    }

    零宽断言{

        (?=exp)              # 匹配exp前面的位置
        (?<=exp)             # 匹配exp后面的位置
        (?!exp)              # 匹配后面跟的不是exp的位置
        (?<!exp)             # 匹配前面不是exp的位置
        (?#comment)          # 注释不对正则表达式的处理产生任何影响,用于注释

    }

    特殊字符{

        http://en.wikipedia.org/wiki/Ascii_table
        ^H  \010 \b
        ^M  \015 \r
        匹配特殊字符: ctrl+V ctrl不放在按H或M 即可输出^H,用于匹配

    }

}

流程结构{

    if判断{

        if [ $a == $b ]
        then
            echo "等于"
        else
            echo "不等于"
        fi

    }

    case分支选择{

        case $xs in
        0) echo "0" ;;
        1) echo "1" ;;
        *) echo "其他" ;;
        esac

    }

    while循环{

        # while true  等同   while :
        # 读文件为整行读入
        num=1
        while [ $num -lt 10 ]
        do
        echo $num
        ((num=$num+2))
        done
        ###########################
        grep a  a.txt | while read a
        do
            echo $a
        done
        ###########################
        while read a
        do
            echo $a
        done < a.txt

    }

    for循环{

        # 读文件已空格分隔
        w=`awk -F ":" '{print $1}' c`
        for d in $w
        do
            $d
        done
        ###########################
        for ((i=0;i<${#o[*]};i++))
        do
        echo ${o[$i]}
        done

    }

    until循环{

        #  当command不为0时循环
        until command
        do
            body
        done

    }

    流程控制{

        break N     #  跳出几层循环
        continue N  #  跳出几层循环,循环次数不变
        continue    #  重新循环次数不变

    }

}

变量{

    A="a b c def"           # 将字符串复制给变量
    A=`cmd`                 # 将命令结果赋给变量
    A=$(cmd)                # 将命令结果赋给变量
    eval a=\$$a             # 间接调用
    i=2&&echo $((i+3))      # 计算后打印新变量结果
    i=2&&echo $[i+3]        # 计算后打印新变量结果
    a=$((2>6?5:8))          # 判断两个值满足条件的赋值给变量
    $1  $2  $*              # 位置参数 *代表所有
    env                     # 查看环境变量
    env | grep "name"       # 查看定义的环境变量
    set                     # 查看环境变量和本地变量
    read name               # 输入变量
    readonly name           # 把name这个变量设置为只读变量,不允许再次设置
    readonly                # 查看系统存在的只读文件
    export name             # 变量name由本地升为环境
    export name="RedHat"    # 直接定义name为环境变量
    export Stat$nu=2222     # 变量引用变量赋值
    unset name              # 变量清除
    export -n name          # 去掉只读变量
    shift                   # 用于移动位置变量,调整位置变量,使$3的值赋给$2.$2的值赋予$1
    name + 0                # 将字符串转换为数字
    number " "              # 将数字转换成字符串
    a='ee';b='a';echo ${!b} # 间接引用name变量的值
    : ${a="cc"}             # 如果a有值则不改变,如果a无值则赋值a变量为cc

    数组{

        A=(a b c def)         # 将变量定义为数組
        ${#A[*]}              # 数组个数
        ${A[*]}               # 数组所有元素,大字符串
        ${A[@]}               # 数组所有元素,类似列表可迭代
        ${A[2]}               # 脚本的一个参数或数组第三位

    }

    定义变量类型{

        declare 或 typeset
        -r 只读(readonly一样)
        -i 整形
        -a 数组
        -f 函数
        -x export
        declare -i n=0

    }

    系统变量{

        $0   #  脚本启动名(包括路径)
        $n   #  第n个参数,n=1,2,…9
        $*   #  所有参数列表(不包括脚本本身)
        $@   #  所有参数列表(独立字符串)
        $#   #  参数个数(不包括脚本本身)
        $$   #  当前程式的PID
        $!   #  执行上一个指令的PID
        $?   #  执行上一个指令的返回值

    }

    变量引用技巧{

        ${name:+value}        # 如果设置了name,就把value显示,未设置则为空
        ${name:-value}        # 如果设置了name,就显示它,未设置就显示value
        ${name:?value}        # 未设置提示用户错误信息value 
        ${name:=value}        # 如未设置就把value设置并显示<写入本地中>
        ${#A}                 # 可得到变量中字节
        ${A:4:9}              # 取变量中第4位到后面9位
        ${A:(-1)}             # 倒叙取最后一个字符
        ${A/www/http}         # 取变量并且替换每行第一个关键字
        ${A//www/http}        # 取变量并且全部替换每行关键字

        定义了一个变量: file=/dir1/dir2/dir3/my.file.txt
        ${file#*/}     # 去掉第一条 / 及其左边的字串:dir1/dir2/dir3/my.file.txt
        ${file##*/}    # 去掉最后一条 / 及其左边的字串:my.file.txt
        ${file#*.}     # 去掉第一个 .  及其左边的字串:file.txt
        ${file##*.}    # 去掉最后一个 .  及其左边的字串:txt
        ${file%/*}     # 去掉最后条 / 及其右边的字串:/dir1/dir2/dir3
        ${file%%/*}    # 去掉第一条 / 及其右边的字串:(空值)
        ${file%.*}     # 去掉最后一个 .  及其右边的字串:/dir1/dir2/dir3/my.file
        ${file%%.*}    # 去掉第一个 .  及其右边的字串:/dir1/dir2/dir3/my
        #   # 是去掉左边(在键盘上 # 在 $ 之左边)
        #   % 是去掉右边(在键盘上 % 在 $ 之右边)
        #   单一符号是最小匹配﹔两个符号是最大匹配

    }

}

test条件判断{

    # 符号 [ ] 等同  test命令

    expression为字符串操作{

        -n str   # 字符串str是否不为空
        -z str   # 字符串str是否为空

    }

    expression为文件操作{

        -a     # 并且,两条件为真
        -b     # 是否块文件
        -p     # 文件是否为一个命名管道
        -c     # 是否字符文件
        -r     # 文件是否可读
        -d     # 是否一个目录
        -s     # 文件的长度是否不为零
        -e     # 文件是否存在
        -S     # 是否为套接字文件
        -f     # 是否普通文件
        -x     # 文件是否可执行,则为真
        -g     # 是否设置了文件的 SGID 位
        -u     # 是否设置了文件的 SUID 位
        -G     # 文件是否存在且归该组所有
        -w     # 文件是否可写,则为真
        -k     # 文件是否设置了的粘贴位
        -t fd  # fd 是否是个和终端相连的打开的文件描述符(fd 默认为 1)
        -o     # 或,一个条件为真
        -O     # 文件是否存在且归该用户所有
        !      # 取反

    }

    expression为整数操作{

        expr1 -a expr2   # 如果 expr1 和 expr2 评估为真,则为真
        expr1 -o expr2   # 如果 expr1 或 expr2 评估为真,则为真

    }

    两值比较{

        整数     字符串
        -lt      <         # 小于
        -gt      >         # 大于
        -le      <=        # 小于或等于
        -ge      >=        # 大于或等于
        -eq      ==        # 等于
        -ne      !=        # 不等于

    }

    test 10 -lt 5       # 判断大小
    echo $?             # 查看上句test命令返回状态  # 结果0为真,1为假
    test -n "hello"     # 判断字符串长度是否为0
    [ $? -eq 0 ] && echo "success" || exit   # 判断成功提示,失败则退出

}

重定向{

    #  标准输出 stdout 和 标准错误 stderr  标准输入stdin
    cmd 1> fiel              # 把 标准输出 重定向到 file 文件中
    cmd > file 2>&1          # 把 标准输出 和 标准错误 一起重定向到 file 文件中
    cmd 2> file              # 把 标准错误 重定向到 file 文件中
    cmd 2>> file             # 把 标准错误 重定向到 file 文件中(追加)
    cmd >> file 2>&1         # 把 标准输出 和 标准错误 一起重定向到 file 文件中(追加)
    cmd < file >file2        # cmd 命令以 file 文件作为 stdin(标准输入),以 file2 文件作为 标准输出
    cat <>file               # 以读写的方式打开 file
    cmd < file cmd           # 命令以 file 文件作为 stdin
    cmd << delimiter
    cmd; #从 stdin 中读入,直至遇到 delimiter 分界符

delimiter

    >&n    # 使用系统调用 dup (2) 复制文件描述符 n 并把结果用作标准输出
    <&n    # 标准输入复制自文件描述符 n
    <&-    # 关闭标准输入(键盘)
    >&-    # 关闭标准输出
    n<&-   # 表示将 n 号输入关闭
    n>&-   # 表示将 n 号输出关闭

}

运算符{

    $[]等同于$(())  # $[]表示形式告诉shell求中括号中的表达式的值
    ~var            # 按位取反运算符,把var中所有的二进制为1的变为0,为0的变为1
    var\<<str       # 左移运算符,把var中的二进制位向左移动str位,忽略最左端移出的各位,最右端的各位上补上0值,每做一次按位左移就有var乘2
    var>>str        # 右移运算符,把var中所有的二进制位向右移动str位,忽略最右移出的各位,最左的各位上补0,每次做一次右移就有实现var除以2
    var&str         # 与比较运算符,var和str对应位,对于每个二进制来说,如果二都为1,结果为1.否则为0
    var^str         # 异或运算符,比较var和str对应位,对于二进制来说如果二者互补,结果为1,否则为0
    var|str         # 或运算符,比较var和str的对应位,对于每个二进制来说,如二都该位有一个1或都是1,结果为1,否则为0

    运算符优先级{
        级别      运算符                                  说明
        1      =,+=,-=,/=,%=,*=,&=,^=,|=,<<=,>>=      # 赋值运算符
        2         ||                                  # 逻辑或 前面不成功执行
        3         &&                                  # 逻辑与 前面成功后执行
        4         |                                   # 按位或
        5         ^                                   # 按位异或
        6         &                                   # 按位与
        7         ==,!=                               # 等于/不等于
        8         <=,>=,<,>                           # 小于或等于/大于或等于/小于/大于
        9        \<<,>>                               # 按位左移/按位右移 (无转意符号)
        10        +,-                                 # 加减
        11        *,/,%                               # 乘,除,取余
        12        ! ,~                                # 逻辑非,按位取反或补码
        13        -,+                                 # 正负
    }

}

数学运算{

    $(( ))        # 整数运算
    + - * / **    # 分別为 "加、減、乘、除、密运算"
    & | ^ !       # 分別为 "AND、OR、XOR、NOT" 运算
    %             # 余数运算

    let{

        let # 运算
        let x=16/4
        let x=5**5

    }

    expr{

        expr 14 % 9                    # 整数运算
        SUM=`expr 2 \* 3`              # 乘后结果赋值给变量
        LOOP=`expr $LOOP + 1`          # 增量计数(加循环即可) LOOP=0
        expr length "bkeep zbb"        # 计算字串长度
        expr substr "bkeep zbb" 4 9    # 抓取字串
        expr index "bkeep zbb" e       # 抓取第一个字符数字串出现的位置
        expr 30 / 3 / 2                # 运算符号有空格
        expr bkeep.doc : '.*'          # 模式匹配(可以使用expr通过指定冒号选项计算字符串中字符数)
        expr bkeep.doc : '\(.*\).doc'  # 在expr中可以使用字符串匹配操作,这里使用模式抽取.doc文件附属名

        数值测试{

            #如果试图计算非整数,则会返回错误
            rr=3.4
            expr $rr + 1
            expr: non-numeric argument
            rr=5
            expr $rr + 1
            6

        }

    }

    bc{

        echo "m^n"|bc            # 次方计算
        seq -s '+' 1000 |bc      # 从1加到1000
        seq 1 1000 |tr "\n" "+"|sed 's/+$/\n/'|bc   # 从1加到1000
    }

}

grep{

    -c    # 显示匹配到得行的数目,不显示内容
    -h    # 不显示文件名
    -i    # 忽略大小写
    -l    # 只列出匹配行所在文件的文件名
    -n    # 在每一行中加上相对行号
    -s    # 无声操作只显示报错,检查退出状态
    -v    # 反向查找
    -e    # 使用正则表达式
    -w    # 精确匹配
    -wc   # 精确匹配次数
    -o    # 查询所有匹配字段
    -P    # 使用perl正则表达式
    -A3   # 打印匹配行和下三行
    -B3   # 打印匹配行和上三行
    -C3   # 打印匹配行和上下三行

    grep -v "a" txt                              # 过滤关键字符行
    grep -w 'a\>' txt                            # 精确匹配字符串
    grep -i "a" txt                              # 大小写敏感
    grep  "a[bB]" txt                            # 同时匹配大小写
    grep '[0-9]\{3\}' txt                        # 查找0-9重复三次的所在行
    grep -E "word1|word2|word3"   file           # 任意条件匹配
    grep word1 file | grep word2 |grep word3     # 同时匹配三个
    echo quan@163.com |grep -Po '(?<=@.).*(?=.$)'                           # 零宽断言截取字符串  # 63.co
    echo "I'm singing while you're dancing" |grep -Po '\b\w+(?=ing\b)'      # 零宽断言匹配
    echo 'Rx Optical Power: -5.01dBm, Tx Optical Power: -2.41dBm' |grep -Po '(?<=:).*?(?=d)'           # 取出d前面数字 # ?为最小匹配
    echo 'Rx Optical Power: -5.01dBm, Tx Optical Power: -2.41dBm' | grep -Po '[-0-9.]+'                # 取出d前面数字 # ?为最小匹配
    echo '["mem",ok],["hardware",false],["filesystem",false]' |grep -Po '[^"]+(?=",false)'             # 取出false前面的字母
    echo '["mem",ok],["hardware",false],["filesystem",false]' |grep -Po '\w+",false'|grep -Po '^\w+'   # 取出false前面的字母

    grep用于if判断{

        if echo abc | grep "a"  > /dev/null 2>&1
        then
            echo "abc"
        else
            echo "null"
        fi

    }

}

tr{

    -c          # 用字符串1中字符集的补集替换此字符集,要求字符集为ASCII
    -d          # 删除字符串1中所有输入字符
    -s          # 删除所有重复出现字符序列,只保留第一个:即将重复出现字符串压缩为一个字符串
    [a-z]       # a-z内的字符组成的字符串
    [A-Z]       # A-Z内的字符组成的字符串
    [0-9]       # 数字串
    \octal      # 一个三位的八进制数,对应有效的ASCII字符
    [O*n]       # 表示字符O重复出现指定次数n。因此[O*2]匹配OO的字符串

    tr中特定控制字符表达方式{

        \a Ctrl-G    \007    # 铃声
        \b Ctrl-H    \010    # 退格符
        \f Ctrl-L    \014    # 走行换页
        \n Ctrl-J    \012    # 新行
        \r Ctrl-M    \015    # 回车
        \t Ctrl-I    \011    # tab键
        \v Ctrl-X    \030

    }

    tr A-Z a-z                             # 将所有大写转换成小写字母
    tr " " "\n"                            # 将空格替换为换行
    tr -s "[\012]" < plan.txt              # 删除空行
    tr -s ["\n"] < plan.txt                # 删除空行
    tr -s "[\015]" "[\n]" < file           # 删除文件中的^M,并代之以换行
    tr -s "[\r]" "[\n]" < file             # 删除文件中的^M,并代之以换行
    tr -s "[:]" "[\011]" < /etc/passwd     # 替换passwd文件中所有冒号,代之以tab键
    tr -s "[:]" "[\t]" < /etc/passwd       # 替换passwd文件中所有冒号,代之以tab键
    echo $PATH | tr ":" "\n"               # 增加显示路径可读性
    1,$!tr -d '\t'                         # tr在vi内使用,在tr前加处理行范围和感叹号('$'表示最后一行)
    tr "\r" "\n"<macfile > unixfile        # Mac -> UNIX
    tr "\n" "\r"<unixfile > macfile        # UNIX -> Mac
    tr -d "\r"<dosfile > unixfile          # DOS -> UNIX  Microsoft DOS/Windows 约定,文本的每行以回车字符(\r)并后跟换行符(\n)结束
    awk '{ print $0"\r" }'<unixfile > dosfile   # UNIX -> DOS:在这种情况下,需要用awk,因为tr不能插入两个字符来替换一个字符

}

seq{

    # 不指定起始数值,则默认为 1
    -s   # 选项主要改变输出的分格符, 预设是 \n
    -w   # 等位补全,就是宽度相等,不足的前面补 0
    -f   # 格式化输出,就是指定打印的格式

    seq 10 100               # 列出10-100
    seq 1 10 |tac            # 倒叙列出
    seq -s '+' 90 100 |bc    # 从90加到100
    seq -f 'dir%g' 1 10 | xargs mkdir     # 创建dir1-10
    seq -f 'dir%03g' 1 10 | xargs mkdir   # 创建dir001-010

}

trap{

    信号         说明
    HUP(1)     # 挂起,通常因终端掉线或用户退出而引发
    INT(2)     # 中断,通常因按下Ctrl+C组合键而引发
    QUIT(3)    # 退出,通常因按下Ctrl+\组合键而引发
    ABRT(6)    # 中止,通常因某些严重的执行错误而引发
    ALRM(14)   # 报警,通常用来处理超时
    TERM(15)   # 终止,通常在系统关机时发送

    trap捕捉到信号之后,可以有三种反应方式:
        1、执行一段程序来处理这一信号
        2、接受信号的默认操作
        3、忽视这一信号

    第一种形式的trap命令在shell接收到 signal list 清单中数值相同的信号时,将执行双引号中的命令串:
    trap 'commands' signal-list   # 单引号,要在shell探测到信号来的时候才执行命令和变量的替换,时间一直变
    trap "commands" signal-list   # 双引号,shell第一次设置信号的时候就执行命令和变量的替换,时间不变

}

awk{

    # 默认是执行打印全部 print $0
    # 1为真 打印$0
    # 0为假 不打印

    -F   # 改变FS值(分隔符)
    ~    # 域匹配
    ==   # 变量匹配
    !~   # 匹配不包含
    =    # 赋值
    !=   # 不等于
    +=   # 叠加

    \b   # 退格
    \f   # 换页
    \n   # 换行
    \r   # 回车
    \t   # 制表符Tab
    \c   # 代表任一其他字符

    -F"[ ]+|[%]+"  # 多个空格或多个%为分隔符
    [a-z]+         # 多个小写字母
    [a-Z]          # 代表所有大小写字母(aAbB...zZ)
    [a-z]          # 代表所有大小写字母(ab...z)
    [:alnum:]      # 字母数字字符
    [:alpha:]      # 字母字符
    [:cntrl:]      # 控制字符
    [:digit:]      # 数字字符
    [:graph:]      # 非空白字符(非空格、控制字符等)
    [:lower:]      # 小写字母
    [:print:]      # 与[:graph:]相似,但是包含空格字符
    [:punct:]      # 标点字符
    [:space:]      # 所有的空白字符(换行符、空格、制表符)
    [:upper:]      # 大写字母
    [:xdigit:]     # 十六进制的数字(0-9a-fA-F)
    [[:digit:][:lower:]]    # 数字和小写字母(占一个字符)


    内建变量{
        $n            # 当前记录的第 n 个字段,字段间由 FS 分隔
        $0            # 完整的输入记录
        ARGC          # 命令行参数的数目
        ARGIND        # 命令行中当前文件的位置 ( 从 0 开始算 )
        ARGV          # 包含命令行参数的数组
        CONVFMT       # 数字转换格式 ( 默认值为 %.6g)
        ENVIRON       # 环境变量关联数组
        ERRNO         # 最后一个系统错误的描述
        FIELDWIDTHS   # 字段宽度列表 ( 用空格键分隔 )
        FILENAME      # 当前文件名
        FNR           # 同 NR ,但相对于当前文件
        FS            # 字段分隔符 ( 默认是任何空格 )
        IGNORECASE    # 如果为真(即非 0 值),则进行忽略大小写的匹配
        NF            # 当前记录中的字段数(列)
        NR            # 当前行数
        OFMT          # 数字的输出格式 ( 默认值是 %.6g)
        OFS           # 输出字段分隔符 ( 默认值是一个空格 )
        ORS           # 输出记录分隔符 ( 默认值是一个换行符 )
        RLENGTH       # 由 match 函数所匹配的字符串的长度
        RS            # 记录分隔符 ( 默认是一个换行符 )
        RSTART        # 由 match 函数所匹配的字符串的第一个位置
        SUBSEP        # 数组下标分隔符 ( 默认值是 /034)
        BEGIN         # 先处理(可不加文件参数)
        END           # 结束时处理
    }

    内置函数{
        gsub(r,s)          # 在整个$0中用s替代r   相当于 sed 's///g'
        gsub(r,s,t)        # 在整个t中用s替代r
        index(s,t)         # 返回s中字符串t的第一位置
        length(s)          # 返回s长度
        match(s,r)         # 测试s是否包含匹配r的字符串
        split(s,a,fs)      # 在fs上将s分成序列a
        sprint(fmt,exp)    # 返回经fmt格式化后的exp
        sub(r,s)           # 用$0中最左边最长的子串代替s   相当于 sed 's///'
        substr(s,p)        # 返回字符串s中从p开始的后缀部分
        substr(s,p,n)      # 返回字符串s中从p开始长度为n的后缀部分
    }

    awk判断{
        awk '{print ($1>$2)?"第一排"$1:"第二排"$2}'      # 条件判断 括号代表if语句判断 "?"代表then ":"代表else
        awk '{max=($1>$2)? $1 : $2; print max}'          # 条件判断 如果$1大于$2,max值为为$1,否则为$2
        awk '{if ( $6 > 50) print $1 " Too high" ;\
        else print "Range is OK"}' file
        awk '{if ( $6 > 50) { count++;print $3 } \
        else { x+5; print $2 } }' file
    }

    awk循环{
        awk '{i = 1; while ( i <= NF ) { print NF, $i ; i++ } }' file
        awk '{ for ( i = 1; i <= NF; i++ ) print NF,$i }' file
    }

    awk '/Tom/' file               # 打印匹配到得行
    awk '/^Tom/{print $1}'         # 匹配Tom开头的行 打印第一个字段
    awk '$1 !~ /ly$/'              # 显示所有第一个字段不是以ly结尾的行
    awk '$3 <40'                   # 如果第三个字段值小于40才打印
    awk '$4==90{print $5}'         # 取出第四列等于90的第五列
    awk '/^(no|so)/' test          # 打印所有以模式no或so开头的行
    awk '$3 * $4 > 500'            # 算术运算(第三个字段和第四个字段乘积大于500则显示)
    awk '{print NR" "$0}'          # 加行号
    awk '/tom/,/suz/'              # 打印tom到suz之间的行
    awk '{a+=$1}END{print a}'      # 列求和
    awk 'sum+=$1{print sum}'       # 将$1的值叠加后赋给sum
    awk '{a+=$1}END{print a/NR}'   # 列求平均值
    awk '!s[$1 $3]++' file         # 根据第一列和第三列过滤重复行
    awk -F'[ :\t]' '{print $1,$2}'           # 以空格、:、制表符Tab为分隔符
    awk '{print "'"$a"'","'"$b"'"}'          # 引用外部变量
    awk '{if(NR==52){print;exit}}'           # 显示第52行
    awk '/关键字/{a=NR+2}a==NR {print}'      # 取关键字下第几行
    awk 'gsub(/liu/,"aaaa",$1){print $0}'    # 只打印匹配替换后的行
    ll | awk -F'[ ]+|[ ][ ]+' '/^$/{print $8}'             # 提取时间,空格不固定
    awk '{$1="";$2="";$3="";print}'                        # 去掉前三列
    echo aada:aba|awk '/d/||/b/{print}'                    # 匹配两内容之一
    echo aada:abaa|awk -F: '$1~/d/||$2~/b/{print}'         # 关键列匹配两内容之一
    echo Ma asdas|awk '$1~/^[a-Z][a-Z]$/{print }'          # 第一个域匹配正则
    echo aada:aaba|awk '/d/&&/b/{print}'                   # 同时匹配两条件
    awk 'length($1)=="4"{print $1}'                        # 字符串位数
    awk '{if($2>3){system ("touch "$1)}}'                  # 执行系统命令
    awk '{sub(/Mac/,"Macintosh",$0);print}'                # 用Macintosh替换Mac
    awk '{gsub(/Mac/,"MacIntosh",$1); print}'              # 第一个域内用Macintosh替换Mac
    awk -F '' '{ for(i=1;i<NF+1;i++)a+=$i  ;print a}'      # 多位数算出其每位数的总和.比如 1234, 得到 10
    awk '{ i=$1%10;if ( i == 0 ) {print i}}'               # 判断$1是否整除(awk中定义变量引用时不能带 $ )
    awk 'BEGIN{a=0}{if ($1>a) a=$1 fi}END{print a}'        # 列求最大值  设定一个变量开始为0,遇到比该数大的值,就赋值给该变量,直到结束
    awk 'BEGIN{a=11111}{if ($1<a) a=$1 fi}END{print a}'    # 求最小值
    awk '{if(A)print;A=0}/regexp/{A=1}'                    # 查找字符串并将匹配行的下一行显示出来,但并不显示匹配行
    awk '/regexp/{print A}{A=$0}'                          # 查找字符串并将匹配行的上一行显示出来,但并不显示匹配行
    awk '{if(!/mysql/)gsub(/1/,"a");print $0}'             # 将1替换成a,并且只在行中未出现字串mysql的情况下替换
    awk 'BEGIN{srand();fr=int(100*rand());print fr;}'      # 获取随机数
    awk '{if(NR==3)F=1}{if(F){i++;if(i%7==1)print}}'       # 从第3行开始,每7行显示一次
    awk '{if(NF<1){print i;i=0} else {i++;print $0}}'      # 显示空行分割各段的行数
    echo +null:null  |awk -F: '$1!~"^+"&&$2!="null"{print $0}'       # 关键列同时匹配
    awk -v RS=@ 'NF{for(i=1;i<=NF;i++)if($i) printf $i;print ""}'    # 指定记录分隔符
    awk '{b[$1]=b[$1]$2}END{for(i in b){print i,b[i]}}'              # 列叠加
    awk '{ i=($1%100);if ( $i >= 0 ) {print $0,$i}}'                 # 求余数
    awk '{b=a;a=$1; if(NR>1){print a-b}}'                            # 当前行减上一行
    awk '{a[NR]=$1}END{for (i=1;i<=NR;i++){print a[i]-a[i-1]}}'      # 当前行减上一行
    awk -F: '{name[x++]=$1};END{for(i=0;i<NR;i++)print i,name[i]}'   # END只打印最后的结果,END块里面处理数组内容
    awk '{sum2+=$2;count=count+1}END{print sum2,sum2/count}'         # $2的总和  $2总和除个数(平均值)
    awk -v a=0 -F 'B' '{for (i=1;i<NF;i++){ a=a+length($i)+1;print a  }}'     # 打印所以B的所在位置
    awk 'BEGIN{ "date" | getline d; split(d,mon) ; print mon[2]}' file        # 将date值赋给d,并将d设置为数组mon,打印mon数组中第2个元素
    awk 'BEGIN{info="this is a test2010test!";print substr(info,4,10);}'      # 截取字符串(substr使用)
    awk 'BEGIN{info="this is a test2010test!";print index(info,"test")?"ok":"no found";}'      # 匹配字符串(index使用)
    awk 'BEGIN{info="this is a test2010test!";print match(info,/[0-9]+/)?"ok":"no found";}'    # 正则表达式匹配查找(match使用)
    awk '{for(i=1;i<=4;i++)printf $i""FS; for(y=10;y<=13;y++)  printf $y""FS;print ""}'        # 打印前4列和后4列
    awk 'BEGIN{for(n=0;n++<9;){for(i=0;i++<n;)printf i"x"n"="i*n" ";print ""}}'                # 乘法口诀
    awk 'BEGIN{info="this is a test";split(info,tA," ");print length(tA);for(k in tA){print k,tA[k];}}'             # 字符串分割(split使用)
    awk '{if (system ("grep "$2" tmp/* > /dev/null 2>&1") == 0 ) {print $1,"Y"} else {print $1,"N"} }' a            # 执行系统命令判断返回状态
    awk  '{for(i=1;i<=NF;i++) a[i,NR]=$i}END{for(i=1;i<=NF;i++) {for(j=1;j<=NR;j++) printf a[i,j] " ";print ""}}'   # 将多行转多列
    netstat -an|awk -v A=$IP -v B=$PORT 'BEGIN{print "Clients\tGuest_ip"}$4~A":"B{split($5,ip,":");a[ip[1]]++}END{for(i in a)print a[i]"\t"i|"sort -nr"}'    # 统计IP连接个数
    cat 1.txt|awk -F" # " '{print "insert into user (user,password,email)values(""'\''"$1"'\'\,'""'\''"$2"'\'\,'""'\''"$3"'\'\)\;'"}' >>insert_1.txt     # 处理sql语句
    awk 'BEGIN{printf "what is your name?";getline name < "/dev/tty" } $1 ~name {print "FOUND" name " on line ", NR "."} END{print "see you," name "."}' file  # 两文件匹配

    取本机IP{
        /sbin/ifconfig |awk -v RS="Bcast:" '{print $NF}'|awk -F: '/addr/{print $2}'
        /sbin/ifconfig |awk '/inet/&&$2!~"127.0.0.1"{split($2,a,":");print a[2]}'
        /sbin/ifconfig |awk -v RS='inet addr:' '$1!="eth0"&&$1!="127.0.0.1"{print $1}'|awk '{printf"%s|",$0}'
        /sbin/ifconfig |awk  '{printf("line %d,%s\n",NR,$0)}'         # 指定类型(%d数字,%s字符)
    }

    查看磁盘空间{
        df -h|awk -F"[ ]+|%" '$5>14{print $5}'
        df -h|awk 'NR!=1{if ( NF == 6 ) {print $5} else if ( NF == 5) {print $4} }'
        df -h|awk 'NR!=1 && /%/{sub(/%/,"");print $(NF-1)}'
        df -h|sed '1d;/ /!N;s/\n//;s/ \+/ /;'    #将磁盘分区整理成一行   可直接用 df -P
    }

    排列打印{
        awk 'END{printf "%-10s%-10s\n%-10s%-10s\n%-10s%-10s\n","server","name","123","12345","234","1234"}' txt
        awk 'BEGIN{printf "|%-10s|%-10s|\n|%-10s|%-10s|\n|%-10s|%-10s|\n","server","name","123","12345","234","1234"}'
        awk 'BEGIN{
        print "   *** 开 始 ***   ";
        print "+-----------------+";
        printf "|%-5s|%-5s|%-5s|\n","id","name","ip";
        }
        $1!=1 && NF==4{printf "|%-5s|%-5s|%-5s|\n",$1,$2,$3" "$11}
        END{
        print "+-----------------+";
        print "   *** 结 束 ***   "
        }' txt
    }

    awk经典题{
        分析图片服务日志,把日志(每个图片访问次数*图片大小的总和)排行,也就是计算每个url的总访问大小
        说明:本题生产环境应用:这个功能可以用于IDC网站流量带宽很高,然后通过分析服务器日志哪些元素占用流量过大,进而进行优化或裁剪该图片,压缩js等措施。
        本题需要输出三个指标: 【被访问次数】    【访问次数*单个被访问文件大小】   【文件名(带URL)】
        测试数据
        59.33.26.105 - - [08/Dec/2010:15:43:56 +0800] "GET /static/images/photos/2.jpg HTTP/1.1" 200 11299

        awk '{array_num[$7]++;array_size[$7]+=$10}END{for(i in array_num) {print array_num[i]" "array_size[i]" "i}}'
    }

    awk练习题{

        wang     4
        cui      3
        zhao     4
        liu      3
        liu      3
        chang    5
        li       2

        1 通过第一个域找出字符长度为4的
        2 当第二列值大于3时,创建空白文件,文件名为当前行第一个域$1 (touch $1)
        3 将文档中 liu 字符串替换为 hong
        4 求第二列的和
        5 求第二列的平均值
        6 求第二列中的最大值
        7 将第一列过滤重复后,列出每一项,每一项的出现次数,每一项的大小总和

        1、字符串长度
            awk 'length($1)=="4"{print $1}'
        2、执行系统命令
            awk '{if($2>3){system ("touch "$1)}}'
        3、gsub(/r/,"s",域) 在指定域(默认$0)中用s替代r  (sed 's///g')
            awk '{gsub(/liu/,"hong",$1);print $0}' a.txt
        4、列求和
            awk '{a+=$2}END{print a}'
        5、列求平均值
            awk '{a+=$2}END{print a/NR}'
            awk '{a+=$2;b++}END{print a,a/b}'
        6、列求最大值
            awk 'BEGIN{a=0}{if($2>a) a=$2 }END{print a}'
        7、将第一列过滤重复列出每一项,每一项的出现次数,每一项的大小总和
            awk '{a[$1]++;b[$1]+=$2}END{for(i in a){print i,a[i],b[i]}}'
    }

    awk处理复杂日志{
        6.19:
        DHB_014_号百总机服务业务日报:广州 到达数异常!
        DHB_023_号百漏话提醒日报:珠海 到达数异常!
        6.20:
        DHB_014_号百总机服务业务日报:广州 到达数异常!到

        awk -F '[_ :]+' 'NF>2{print $4,$1"_"$2,b |"sort";next}{b=$1}'

        # 当前行NF小于等于2 只针对{print $4,$1"_"$2,b |"sort";next} 有效 即 6.19:行跳过此操作,  {b=$1} 仍然执行
        # 当前行NF大于2 执行到 next 强制跳过本行,即跳过后面的 {b=$1}

        广州 DHB_014 6.19
    }
}

sed{

    # 先读取资料、存入模式空间、对其进行编辑、再输出、再用下一行替换模式空间内容
    # 调试工具sedsed (参数 -d)   http://aurelio.net/sedsed/sedsed-1.0

    -n   # 输出由编辑指令控制(取消默认的输出,必须与编辑指令一起配合)
    -i   # 直接对文件操作
    -e   # 多重编辑
    -r   # 正则可不转移特殊字符

    b    # 跳过匹配的行
    p    # 打印
    d    # 删除
    s    # 替换
    g    # 配合s全部替换
    i    # 行前插入
    a    # 行后插入
    r    # 读
    y    # 转换
    q    # 退出

    &    # 代表查找的串内容
    *    # 任意多个 前驱字符(前导符)
    ?    # 0或1个 最小匹配 没加-r参数需转义 \?
    $    # 最后一行
    .*   # 匹配任意多个字符
    \(a\)   # 保存a作为标签1(\1)

    模式空间{

        # 模式空间(两行两行处理) 模式匹配的范围,一般而言,模式空间是输入文本中某一行,但是可以通过使用N函数把多于一行读入模式空间
        # 暂存空间里默认存储一个空行
        n   # 读入下一行(覆盖上一行)
        h   # 把模式空间里的行拷贝到暂存空间
        H   # 把模式空间里的行追加到暂存空间
        g   # 用暂存空间的内容替换模式空间的行
        G   # 把暂存空间的内容追加到模式空间的行后
        x   # 将暂存空间的内容于模式空间里的当前行互换
        !  # 对其前面的要匹配的范围取反
        D   # 删除当前模式空间中直到并包含第一个换行符的所有字符(/.*/匹配模式空间中所有内容,匹配到就执行D,没匹配到就结束D)
        N   # 追加下一个输入行到模式空间后面并在第二者间嵌入一个换行符,改变当前行号码,模式匹配可以延伸跨域这个内嵌换行
        p   # 打印模式空间中的直到并包含第一个换行的所有字符

    }

    标签函数{

        : lable # 建立命令标记,配合b,t函数使用跳转
        b lable # 分支到脚本中带有标记的地方,如果分支不存在则分支到脚本的末尾。
        t labe  # 判断分支,从最后一行开始,条件一旦满足或者T,t命令,将导致分支到带有标号的命令出,或者到脚本末尾。与b函数不同在于t在执行跳转前会先检查其前一个替换命令是否成功,如成功,则执行跳转。

        sed -e '{:p1;/A/s/A/AA/;/B/s/B/BB/;/[AB]\{10\}/b;b p1;}'     # 文件内容第一行A第二行B:建立标签p1;两个替换函数(A替换成AA,B替换成BB)当A或者B达到10个以后调用b,返回
        echo 'sd  f   f   [a    b      c    cddd    eee]' | sed ':n;s#\(\[[^ ]*\)  *#\1#;tn'  # 标签函数t使用方法,替换[]里的空格
        echo "198723124.03"|sed -r ':a;s/([0-9]+)([0-9]{3})/\1,\2/;ta'  # 每三个字符加一个逗号

    }

    引用外部变量{

        sed -n ''$a',10p'
        sed -n ""$a",10p"

    }

    sed 10q                                       # 显示文件中的前10行 (模拟"head")
    sed -n '$='                                   # 计算行数(模拟 "wc -l")
    sed -n '5,/^no/p'                             # 打印从第5行到以no开头行之间的所有行
    sed -i "/^$f/d" a                           # 删除匹配行
    sed -i '/aaa/,$d'                             # 删除匹配行到末尾
    sed -i "s/=/:/" c                             # 直接对文本替换
    sed -i "/^pearls/s/$/j/"                      # 找到pearls开头在行尾加j
    sed '/1/,/3/p' file                           # 打印1和3之间的行
    sed -n '1p' file                              # 取出指定行
    sed '5i\aaa' file                             # 在第5行之前插入行
    sed '5a\aaa' file                             # 在第5行之后抽入行
    echo a|sed -e '/a/i\b'                        # 在匹配行前插入一行
    echo a|sed -e '/a/a\b'                        # 在匹配行后插入一行
    echo a|sed 's/a/&\nb/g'                       # 在匹配行后插入一行
    seq 10| sed -e{1,3}'s/./a/'                   # 匹配1和3行替换
    sed -n '/regexp/!p'                           # 只显示不匹配正则表达式的行
    sed '/regexp/d'                               # 只显示不匹配正则表达式的行
    sed '$!N;s/\n//'                              # 将每两行连接成一行
    sed '/baz/s/foo/bar/g'                        # 只在行中出现字串"baz"的情况下将"foo"替换成"bar"
    sed '/baz/!s/foo/bar/g'                       # 将"foo"替换成"bar",并且只在行中未出现字串"baz"的情况下替换
    echo a|sed -e 's/a/#&/g'                      # 在a前面加#号
    sed 's/foo/bar/4'                             # 只替换每一行中的第四个字串
    sed 's/\(.*\)foo/\1bar/'                      # 替换每行最后一个字符串
    sed 's/\(.*\)foo\(.*foo\)/\1bar\2/'           # 替换倒数第二个字符串
    sed 's/[0-9][0-9]$/&5'                        # 在以[0-9][0-9]结尾的行后加5
    sed -n ' /^eth\|em[01][^:]/{n;p;}'            # 匹配多个关键字
    sed -n -r ' /eth|em[01][^:]/{n;p;}'           # 匹配多个关键字
    echo -e "1\n2"|xargs -i -t sed 's/^/1/' {}    # 同时处理多个文件
    sed '/west/,/east/s/$/*VACA*/'                # 修改west和east之间的所有行,在结尾处加*VACA*
    sed  's/[^1-9]*\([0-9]\+\).*/\1/'             # 取出第一组数字,并且忽略掉开头的0
    sed -n '/regexp/{g;1!p;};h'                   # 查找字符串并将匹配行的上一行显示出来,但并不显示匹配行
    sed -n ' /regexp/{n;p;}'                      # 查找字符串并将匹配行的下一行显示出来,但并不显示匹配行
    sed -n 's/\(mar\)got/\1ianne/p'               # 保存\(mar\)作为标签1
    sed -n 's/\([0-9]\+\).*\(t\)/\2\1/p'          # 保存多个标签
    sed -i -e '1,3d' -e 's/1/2/'                  # 多重编辑(先删除1-3行,在将1替换成2)
    sed -e 's/@.*//g' -e '/^$/d'                  # 删除掉@后面所有字符,和空行
    sed -n -e "{s/^ *[0-9]*//p}"                  # 打印并删除正则表达式的那部分内容
    echo abcd|sed 'y/bd/BE/'                      # 匹配字符替换
    sed '/^#/b;y/y/P/' 2                          # 非#号开头的行替换字符
    sed '/suan/r readfile'                        # 找到含suan的行,在后面加上读入的文件内容
    sed -n '/no/w writefile'                      # 找到含no的行,写入到指定文件中
    sed '/regex/G'                                # 在匹配式样行之后插入一空行
    sed '/regex/{x;p;x;G;}'                       # 在匹配式样行之前和之后各插入一空行
    sed 'n;d'                                     # 删除所有偶数行
    sed 'G;G'                                     # 在每一行后面增加两空行
    sed '/^$/d;G'                                 # 在输出的文本中每一行后面将有且只有一空行
    sed 'n;n;n;n;G;'                              # 在每5行后增加一空白行
    sed -n '5~5p'                                 # 只打印行号为5的倍数
    seq 1 30|sed  '5~5s/.*/a/'                    # 倍数行执行替换
    sed -n '3,${p;n;n;n;n;n;n;}'                  # 从第3行开始,每7行显示一次
    sed -n 'h;n;G;p'                              # 奇偶调换
    seq 1 10|sed '1!G;h;$!d'                      # 倒叙排列
    ls -l|sed -n '/^.rwx.*/p'                     # 查找属主权限为7的文件
    sed = filename | sed 'N;s/\n/\t/'             # 为文件中的每一行进行编号(简单的左对齐方式)
    sed 's/^[ \t]*//'                             # 将每一行前导的"空白字符"(空格,制表符)删除,使之左对齐
    sed 's/^[ \t]*//;s/[ \t]*$//'                 # 将每一行中的前导和拖尾的空白字符删除
    sed '/{abc,def\}\/\[111,222]/s/^/00000/'      # 匹配需要转行的字符: } / [
    echo abcd\\nabcde |sed 's/\\n/@/g' |tr '@' '\n'        # 将换行符转换为换行
    cat tmp|awk '{print $1}'|sort -n|sed -n '$p'           # 取一列最大值
    sed -n '{s/^[^\/]*//;s/\:.*//;p}' /etc/passwd          # 取用户家目录(匹配不为/的字符和匹配:到结尾的字符全部删除)
    sed = filename | sed 'N;s/^/      /; s/ *\(.\{6,\}\)\n/\1   /'   # 对文件中的所有行编号(行号在左,文字右端对齐)
    /sbin/ifconfig |sed 's/.*inet addr:\(.*\) Bca.*/\1/g' |sed -n '/eth/{n;p}'   # 取所有IP

    修改keepalive配置剔除后端服务器{

        sed -i '/real_server.*10.0.1.158.*8888/,+8 s/^/#/' keepalived.conf
        sed -i '/real_server.*10.0.1.158.*8888/,+8 s/^#//' keepalived.conf

    }

    模仿rev功能{

        echo 123 |sed '/\n/!G;s/\(.\)\(.*\n\)/&\2\1/;//D;s/.//;'
        /\n/!G;               # 没有\n换行符,要执行G,因为保留空间中为空,所以在模式空间追加一空行
        s/\(.\)\(.*\n\)/&\2\1/;     # 标签替换 &\n23\n1$ (关键在于& ,可以让后面//匹配到空行)
        //D;                  # D 命令会引起循环删除模式空间中的第一部分,如果删除后,模式空间中还有剩余行,则返回 D 之前的命令,重新执行,如果 D 后,模式空间中没有任何内容,则将退出。  //D 匹配空行执行D,如果上句s没有匹配到,//也无法匹配到空行, "//D;"命令结束
        s/.//;                # D结束后,删除开头的 \n

    }

}

xargs{

    # 命令替换
    -t 先打印命令,然后再执行
    -i 用每项替换 {}
    find / -perm +7000 | xargs ls -l                    # 将前面的内容,作为后面命令的参数
    seq 1 10 |xargs  -i date -d "{} days " +%Y-%m-%d    # 列出10天日期

}

dialog菜单{

    # 默认将所有输出用 stderr 输出,不显示到屏幕   使用参数  --stdout 可将选择赋给变量
    # 退出状态  0正确  1错误

    窗体类型{
        --calendar          # 日历
        --checklist         # 允许你显示一个选项列表,每个选项都可以被单独的选择 (复选框)
        --form              # 表单,允许您建立一个带标签的文本字段,并要求填写
        --fselect           # 提供一个路径,让你选择浏览的文件
        --gauge             # 显示一个表,呈现出完成的百分比,就是显示出进度条。
        --infobox           # 显示消息后,(没有等待响应)对话框立刻返回,但不清除屏幕(信息框)
        --inputbox          # 让用户输入文本(输入框)
        --inputmenu         # 提供一个可供用户编辑的菜单(可编辑的菜单框)
        --menu              # 显示一个列表供用户选择(菜单框)
        --msgbox(message)   # 显示一条消息,并要求用户选择一个确定按钮(消息框)
        --password          # 密码框,显示一个输入框,它隐藏文本
        --pause             # 显示一个表格用来显示一个指定的暂停期的状态
        --radiolist         # 提供一个菜单项目组,但是只有一个项目,可以选择(单选框)
        --tailbox           # 在一个滚动窗口文件中使用tail命令来显示文本
        --tailboxbg         # 跟tailbox类似,但是在background模式下操作
        --textbox           # 在带有滚动条的文本框中显示文件的内容  (文本框)
        --timebox           # 提供一个窗口,选择小时,分钟,秒
        --yesno(yes/no)     # 提供一个带有yes和no按钮的简单信息框
    }

    窗体参数{
        --separate-output          # 对于chicklist组件,输出结果一次输出一行,得到结果不加引号
        --ok-label "提交"          # 确定按钮名称
        --cancel-label "取消"      # 取消按钮名称
        --title "标题"             # 标题名称
        --stdout                   # 将所有输出用 stdout 输出
        --backtitle "上标"         # 窗体上标
        --no-shadow                # 去掉窗体阴影
        --menu "菜单名" 20 60 14   # 菜单及窗口大小
        --clear                    # 完成后清屏操作
        --no-cancel                # 不显示取消项
        --insecure                 # 使用星号来代表每个字符
        --begin <y> <x>            # 指定对话框左上角在屏幕的上的做坐标
        --timeout <秒>             # 超时,返回的错误代码255,如果用户在指定的时间内没有给出相应动作,就按超时处理
        --defaultno                # 使选择默认为no
        --default-item <str>       # 设置在一份清单,表格或菜单中的默认项目。通常在框中的第一项是默认
        --sleep 5                  # 在处理完一个对话框后静止(延迟)的时间(秒)
        --max-input size           # 限制输入的字符串在给定的大小之内。如果没有指定,默认是2048
        --keep-window              # 退出时不清屏和重绘窗口。当几个组件在同一个程序中运行时,对于保留窗口内容很有用的
    }

    dialog --title "Check me" --checklist "Pick Numbers" 15 25 3 1 "one" "off" 2 "two" "on"         # 多选界面[方括号]
    dialog --title "title" --radiolist "checklist" 20 60 14 tag1 "item1" on tag2 "item2" off        # 单选界面(圆括号)
    dialog --title "title" --menu "MENU" 20 60 14 tag1 "item1" tag2 "item2"                         # 单选界面
    dialog --title "Installation" --backtitle "Star Linux" --gauge "Linux Kernel"  10 60 50         # 进度条
    dialog --title "标题" --backtitle "Dialog" --yesno "说明" 20 60                                 # 选择yes/no
    dialog --title "公告标题" --backtitle "Dialog" --msgbox "内容" 20 60                            # 公告
    dialog --title "hey" --backtitle "Dialog" --infobox "Is everything okay?" 10 60                 # 显示讯息后立即离开
    dialog --title "hey" --backtitle "Dialog" --inputbox "Is okay?" 10 60 "yes"                     # 输入对话框
    dialog --title "Array 30" --backtitle "All " --textbox /root/txt 20 75                          # 显示文档内容
    dialog --title "Add" --form "input" 12 40 4 "user" 1 1 "" 1 15 15 0 "name" 2 1 "" 2 15 15 0     # 多条输入对话框
    dialog --title  "Password"  --insecure  --passwordbox  "请输入密码"  10  35                     # 星号显示输入--insecure
    dialog --stdout --title "日历"  --calendar "请选择" 0 0 9 1 2010                                # 选择日期
    dialog --title "title" --menu "MENU" 20 60 14 tag1 "item1" tag2 "item2" 2>tmp                   # 取到结果放到文件中(以标准错误输出结果)
    a=`dialog --title "title"  --stdout --menu "MENU" 20 60 14 tag1 "item1" tag2 "item2"`           # 选择操作赋给变量(使用标准输出)

    dialog菜单实例{
        while :
        do
        clear
        menu=`dialog --title "title"  --stdout --menu "MENU" 20 60 14 1 system 2 custom`
        [ $? -eq 0 ] && echo "$menu" || exit         # 判断dialog执行,取消退出
            while :
            do
                case $menu in
                1)
                    list="1a "item1" 2a "item2""     # 定义菜单列表变量
                ;;
                2)
                    list="1b "item3" 2b "item4""
                ;;
                esac
                result=`dialog --title "title"  --stdout --menu "MENU" 20 60 14 $list`
                [ $? -eq 0 ] && echo "$result" || break    # 判断dialog执行,取消返回菜单,注意:配合上层菜单循环
                read
            done
        done
    }

}

select菜单{

    # 输入项不在菜单自动会提示重新输入
    select menuitem in pick1 pick2 pick3 退出
    do
        echo $menuitem
        case $menuitem in
        退出)
            exit
        ;;
        *)
            select area in area1 area2 area3 返回
            do
                echo $area
                case $area in
                返回)
                    break
                ;;
                *)
                    echo "对$area操作"
                ;;
                esac
            done
        ;;
        esac
    done

}

shift{

    ./cs.sh 1 2 3
    #!/bin/sh
    until [ $# -eq 0 ]
    do
        echo "第一个参数为: $1 参数个数为: $#"
        #shift 命令执行前变量 $1 的值在shift命令执行后不可用
        shift
    done

}

getopts给脚本加参数{

    #!/bin/sh
    while getopts :ab: name
    do
        case $name in
        a)
            aflag=1
        ;;
        b)
            bflag=1
            bval=$OPTARG
        ;;
        \?)
            echo "USAGE:`basename $0` [-a] [-b value]"
            exit  1
        ;;
        esac
    done
    if [ ! -z $aflag ] ; then
        echo "option -a specified"
        echo "$aflag"
        echo "$OPTIND"
    fi
    if [ ! -z $bflag ] ; then
        echo  "option -b specified"
        echo  "$bflag"
        echo  "$bval"
        echo  "$OPTIND"
    fi
    echo "here  $OPTIND"
    shift $(($OPTIND -1))
    echo "$OPTIND"
    echo " `shift $(($OPTIND -1))`  "

}

tclsh{

    set foo "a bc"                   # 定义变量
    set b {$a};                      # 转义  b的值为" $a " ,而不是变量结果
    set a 3; incr a 3;               # 数字的自增.  将a加3,如果要减3,则为 incr a –3;
    set c [expr 20/5];               # 计算  c的值为4
    puts $foo;                       # 打印变量
    set qian(123) f;                 # 定义数组
    set qian(1,1,1) fs;              # 多维数组
    parray qian;                     # 打印数组的所有信息
    string length $qian;             # 将返回变量qian的长度
    string option string1 string2;   # 字符相关串操作
    # option 的操作选项:
    # compare           按照字典的排序方式进行比较。根据string1 <,=,>string2分别返回-1,0,1
    # first             返回string2中第一次出现string1的位置,如果没有出现string1则返回-1
    # last              和first相反
    # trim              从string1中删除开头和结尾的出现在string2中的字符
    # tolower           返回string1中的所有字符被转换为小写字符后的新字符串
    # toupper           返回string1中的所有字符串转换为大写后的字符串
    # length            返回string1的长度
    set a 1;while {$a < 3} { set a [incr a 1;]; };puts $a    # 判断变量a小于3既循环
    for {initialization} {condition} {increment} {body}      # 初始化变量,条件,增量,具体操作
    for {set i 0} {$i < 10} {incr i} {puts $i;}              # 将打印出0到9
    if { 表达式 } {
         #运算;
    } else {
         #其他运算;
    }
    switch $x {
        字符串1 { 操作1 ;}
        字符串2 { 操作2 ;}
    }
    foreach element {0 m n b v} {
    # 将在一组变元中进行循环,并且每次都将执行他的循环体
           switch $element {
                 # 判断element的值
         }
    }

    expect交互{

        exp_continue         # 多个spawn命令时并行
        interact             # 执行完成后保持交互状态,把控制权交给控制台
        expect "password:"   # 判断关键字符
        send "passwd\r"      # 执行交互动作,与手工输入密码的动作等效。字符串结尾加"\r"

        ssh后sudo{

            #!/bin/bash
            #sudo注释下行允许后台运行
            #Defaults requiretty
            #sudo去掉!允许远程
            #Defaults !visiblepw

            /usr/bin/expect -c '
            set timeout 5
            spawn ssh -o StrictHostKeyChecking=no xuesong1@192.168.42.128 "sudo grep xuesong1 /etc/passwd"
            expect {
                "passphrase" {
                    send_user "sshkey\n"
                    send "xuesong\r";
                    expect {
                        "sudo" {
                        send_user "sudo\n"
                        send "xuesong\r"
                        interact
                        }
                        eof {
                        send_user "sudo eof\n"
                        }
                    }
                }
                "password:" {
                    send_user "ssh\n"
                    send "xuesong\r";
                    expect {
                        "sudo" {
                        send_user "sudo\n"
                        send "xuesong\r"
                        interact
                        }
                        eof {
                        send_user "sudo eof\n"
                        }
                    }
                }
                "sudo" {
                        send_user "sudo\n"
                        send "xuesong\r"
                        interact
                        }
                eof {
                    send_user "ssh eof\n"
                }
            }
            '

        }

        ssh执行命令操作{

            /usr/bin/expect -c "
            proc jiaohu {} {
                send_user expect_start
                expect {
                    password {
                        send ${RemotePasswd}\r;
                        send_user expect_eof
                        expect {
                            \"does not exist\" {
                                send_user expect_failure
                                exit 10
                            }
                            password {
                                send_user expect_failure
                                exit 5
                            }
                            Password {
                                send ${RemoteRootPasswd}\r;
                                send_user expect_eof
                                expect {
                                    incorrect {
                                        send_user expect_failure
                                        exit 6
                                    }
                                    eof
                                }
                            }
                            eof
                        }
                    }
                    passphrase {
                        send ${KeyPasswd}\r;
                        send_user expect_eof
                        expect {
                            \"does not exist\" {
                                send_user expect_failure
                                exit 10
                            }
                            passphrase{
                                send_user expect_failure
                                exit 7
                            }
                            Password {
                                send ${RemoteRootPasswd}\r;
                                send_user expect_eof
                                expect {
                                    incorrect {
                                        send_user expect_failure
                                        exit 6
                                    }
                                    eof
                                }
                            }
                            eof
                        }
                    }
                    Password {
                        send ${RemoteRootPasswd}\r;
                        send_user expect_eof
                        expect {
                            incorrect {
                                send_user expect_failure
                                exit 6
                            }
                            eof
                        }
                    }
                    \"No route to host\" {
                        send_user expect_failure
                        exit 4
                    }
                    \"Invalid argument\" {
                        send_user expect_failure
                        exit 8
                    }
                    \"Connection refused\" {
                        send_user expect_failure
                        exit 9
                    }
                    \"does not exist\" {
                        send_user expect_failure
                        exit 10
                    }

                    \"Connection timed out\" {
                        send_user expect_failure
                        exit 11
                    }
                    timeout {
                        send_user expect_failure
                        exit 3
                    }
                    eof
                }
            }
            set timeout $TimeOut
            switch $1 {
                Ssh_Cmd {
                    spawn ssh -t -p $Port -o StrictHostKeyChecking=no $RemoteUser@$Ip /bin/su - root -c \\\"$Cmd\\\"
                    jiaohu
                }
                Ssh_Script {
                    spawn scp -P $Port -o StrictHostKeyChecking=no $ScriptPath $RemoteUser@$Ip:/tmp/${ScriptPath##*/};
                    jiaohu
                    spawn ssh -t -p $Port -o StrictHostKeyChecking=no $RemoteUser@$Ip /bin/su - root -c  \\\"/bin/sh /tmp/${ScriptPath##*/}\\\" ;
                    jiaohu
                }
                Scp_File {
                    spawn scp -P $Port -o StrictHostKeyChecking=no -r $ScpPath $RemoteUser@$Ip:${ScpRemotePath};
                    jiaohu
                }
            }
            "
            state=`echo $?`

        }

        交互双引号引用较长变量{

            #!/bin/bash
            RemoteUser=xuesong12
            Ip=192.168.1.2
            RemotePasswd=xuesong
            Cmd="/bin/echo "$PubKey" > "$RemoteKey"/authorized_keys"

            /usr/bin/expect -c "
            set timeout 10
            spawn ssh -o StrictHostKeyChecking=no $RemoteUser@$Ip {$Cmd};
            expect {
                password: {
                    send_user RemotePasswd\n
                    send ${RemotePasswd}\r;
                    interact;
                }
                eof {
                    send_user eof\n
                }
            }
            "

        }

        telnet交互{

            #!/bin/bash
            Ip="10.0.1.53"
            a="\{\'method\'\:\'doLogin\'\,\'params\'\:\{\'uName\'\:\'bobbietest\'\}"
            /usr/bin/expect -c"
                    set timeout 15
                    spawn telnet ${Ip} 8000
                    expect "Escape"
                    send "${a}\\r"
                    expect {
                            -re "\"err.*none\"" {
                                    exit 0
                            }
                            timeout {
                                    exit 1
                            }
                            eof {
                                    exit 2
                            }
                    }
            "
            echo $?

        }

        模拟ssh登录{
            #好处:可加载环境变量

            #!/bin/bash
            Ip='192.168.1.6'            # 循环就行
            RemoteUser='user'           # 普通用户
            RemotePasswd='userpasswd'   # 普通用户的密码
            RemoteRootPasswd='rootpasswd'
            /usr/bin/expect -c "
            set timeout -1
            spawn ssh -t -p $Port -o StrictHostKeyChecking=no $RemoteUser@$Ip
            expect {
                password {
                    send_user RemotePasswd
                    send ${RemotePasswd}\r;
                    expect {
                        \"does not exist\" {
                            send_user \"root user does not exist\n\"
                            exit 10
                        }
                        password {
                            send_user \"user passwd error\n\"
                            exit 5
                        }
                        Last {
                            send \"su - batch\n\"
                            expect {
                                Password {
                                    send_user RemoteRootPasswd
                                    send ${RemoteRootPasswd}\r;
                                    expect {
                                        \"]#\" {
                                            send \"sh /tmp/update.sh update\n \"
                                            expect {
                                                \"]#\" {
                                                    send_user ${Ip}_Update_Done\n
                                                }
                                                eof
                                            }
                                        }
                                    }
                                }
                            }
                        }
                    }
                }
                \"No route to host\" {
                    send_user \"host not found\n\"
                    exit 4
                }
                \"Invalid argument\" {
                    send_user \"incorrect parameter\n\"
                    exit 8
                }
                \"Connection refused\" {
                    send_user \"invalid port parameters\n\"
                    exit 9
                }
                \"does not exist\" {
                    send_user \"root user does not exist\"
                    exit 10
                }
                timeout {
                    send_user \"connection timeout \n\"
                    exit 3
                }
                eof
            }
            "
            state=`echo $?`

        }

    }

}

}

9 实例{

从1叠加到100{

    echo $[$(echo +{1..100})]
    echo $[(100+1)*(100/2)]
    seq -s '+' 100 |bc

}

判断参数是否为空-空退出并打印null{

    #!/bin/sh
    echo $1
    name=${1:?"null"}
    echo $name

}

循环数组{

    for ((i=0;i<${#o[*]};i++))
    do
        echo ${o[$i]}
    done

}

判断路径{

    if [ -d /root/Desktop/text/123 ];then
        echo "找到了123"
        if [ -d /root/Desktop/text ]
        then echo "找到了text"
        else echo "没找到text"
        fi
    else echo "没找到123文件夹"
    fi

}

找出出现次数最多{

    awk '{print $1}' file|sort |uniq -c|sort -k1r

}

判断脚本参数是否正确{

    ./test.sh  -p 123 -P 3306 -h 127.0.0.1 -u root
    #!/bin/sh
    if [ $# -ne 8 ];then
        echo "USAGE: $0 -u user -p passwd -P port -h host"
        exit 1
    fi

    while getopts :u:p:P:h: name
    do
        case $name in
        u)
            mysql_user=$OPTARG
        ;;
        p)
            mysql_passwd=$OPTARG
        ;;
        P)
            mysql_port=$OPTARG
        ;;
        h)
            mysql_host=$OPTARG
        ;;
        *)
            echo "USAGE: $0 -u user -p passwd -P port -h host"
            exit 1
        ;;
        esac
    done

    if [ -z $mysql_user ] || [ -z $mysql_passwd ] || [ -z $mysql_port ] || [ -z $mysql_host ]
    then
        echo "USAGE: $0 -u user -p passwd -P port -h host"
        exit 1
    fi

    echo $mysql_user $mysql_passwd $mysql_port  $mysql_host
    #结果 root 123 3306 127.0.0.1

}

正则匹配邮箱{

    ^[_a-z0-9-]+(\.[_a-z0-9-]+)*@[a-z0-9-]+(\.[a-z0-9-]+)*(\.[a-z]{2,4})$

}

打印表格{

    #!/bin/sh
    clear
    awk 'BEGIN{
    print "+--------------------+--------------------+";
    printf "|%-20s|%-20s|\n","Name","Number";
    print "+--------------------+--------------------+";
    }'
    a=`grep "^[A-Z]" a.txt |sort +1 -n |awk '{print $1":"$2}'`
    #cat a.txt |sort +1 -n |while read list
    for list in $a
    do
        name=`echo $list |awk -F: '{print $1}'`
        number=`echo $list |awk -F: '{print $2}'`
        awk 'BEGIN{printf "|%-20s|%-20s|\n","'"$name"'","'"$number"'";
        print "+--------------------+--------------------+";
        }'
    done
    awk 'BEGIN{
    print "              *** The End ***              "
    print "                                           "
    }'

}

判断日期是否合法{

    #!/bin/sh
    while read a
    do
      if echo $a | grep -q "-" && date -d $a +%Y%m%d > /dev/null 2>&1
      then
        if echo $a | grep -e '^[0-9]\{4\}-[01][0-9]-[0-3][0-9]$'
        then
            break
        else
            echo "您输入的日期不合法,请从新输入!"
        fi
      else
        echo "您输入的日期不合法,请从新输入!"
      fi
    done
    echo "日期为$a"

}

打印日期段所有日期{

    #!/bin/bash
    qsrq=20010101
    jsrq=20010227
    n=0
    >tmp
    while :;do
    current=$(date +%Y%m%d -d"$n day $qsrq")
    if [[ $current == $jsrq ]];then
        echo $current >>tmp;break
    else
        echo $current >>tmp
        ((n++))
    fi
    done
    rq=`awk 'NR==1{print}' tmp`

}

数学计算的小算法{

    #!/bin/sh
    A=1
    B=1
    while [ $A -le 10 ]
    do
        SUM=`expr $A \* $B`
        echo "$SUM"
        if [ $A = 10 ]
        then
            B=`expr $B + 1`
            A=1
        fi
        A=`expr $A + 1`
    done

}

多行合并{

    sed '{N;s/\n//}' file                   # 将两行合并一行(去掉换行符)
    awk '{printf(NR%2!=0)?$0" ":$0" \n"}'   # 将两行合并一行
    awk '{printf"%s ",$0}'                  # 将所有行合并
    awk '{if (NR%4==0){print $0} else {printf"%s ",$0}}' file    # 将4行合并为一行(可扩展)

}

横竖转换{

    cat a.txt | xargs           # 列转行
    cat a.txt | xargs -n1       # 行转列

}

竖行转横行{

    cat file|tr '\n' ' '
    echo $(cat file)

    #!/bin/sh
    for i in `cat file`
    do
          a=${a}" "${i}
    done
    echo $a

}

取用户的根目录{

    #! /bin/bash
    while read name pass uid gid gecos home shell
    do
        echo $home
    done < /etc/passwd

}

远程打包{

    ssh -n $ip 'find '$path' /data /opt -type f  -name "*.sh" -or -name "*.py" -or -name "*.pl" |xargs tar zcvpf /tmp/data_backup.tar.gz'

}

把汉字转成encode格式{

    echo 论坛 | tr -d "\n" | xxd -i | sed -e "s/ 0x/%/g" | tr -d " ,\n"
    %c2%db%cc%b3
    echo 论坛 | tr -d "\n" | xxd -i | sed -e "s/ 0x/%/g" | tr -d " ,\n" | tr "[a-f]" "[A-F]"  # 大写的
    %C2%DB%CC%B3

}

把目录带有大写字母的文件名改为全部小写{

    #!/bin/bash
    for f in *;do
        mv $f `echo $f |tr "[A-Z]" "[a-z]"`
    done

}

查找连续多行,在不连续的行前插入{

    #/bin/bash
    lastrow=null
    i=0
    cat incl|while read line
    do
    i=`expr $i + 1`
    if echo "$lastrow" | grep "#include <[A-Z].h>"
    then
        if echo "$line" | grep -v  "#include <[A-Z].h>"
        then
            sed -i ''$i'i\\/\/All header files are include' incl
            i=`expr $i + 1`
        fi
    fi
    lastrow="$line"
    done

}

查询数据库其它引擎{

    #/bin/bash
    path1=/data/mysql/data/
    dbpasswd=db123
    #MyISAM或InnoDB
    engine=InnoDB

    if [ -d $path1 ];then

    dir=`ls -p $path1 |awk '/\/$/'|awk -F'/' '{print $1}'`
        for db in $dir
        do
        number=`mysql -uroot -p$dbpasswd -A -S "$path1"mysql.sock -e "use ${db};show table status;" |grep -c $engine`
            if [ $number -ne 0 ];then
            echo "${db}"
            fi
        done
    fi

}

批量修改数据库引擎{

    #/bin/bash
    for db in test test1 test3
    do
        tables=`mysql -uroot -pdb123 -A -S /data/mysql/data/mysql.sock -e "use $db;show tables;" |awk 'NR != 1{print}'`

        for table in $tables
        do
            mysql -uroot -pdb123 -A -S /data/mysql/data/mysql.sock -e "use $db;alter table $table engine=MyISAM;"
        done
    done

}

将shell取到的数据插入mysql数据库{

    mysql -u$username -p$passwd -h$dbhost -P$dbport -A -e "
    use $dbname;
    insert into data values ('','$ip','$date','$time','$data')
    "

}

两日期间隔天数{

    D1=`date -d '20070409' +"%s"`
    D2=`date -d '20070304 ' +"%s"`
    D3=$(($D1 - $D2))
    echo $(($D3/60/60/24))

}

while执行ssh只循环一次{

    cat -    # 让cat读连接文件stdin的信息
    seq 10 | while read line; do ssh localhost "cat -"; done        # 显示的9次是被ssh吃掉的
    seq 10 | while read line; do ssh -n localhost "cat -"; done     # ssh加上-n参数可避免只循环一次

}

ssh批量执行命令{

    #版本1
    #!/bin/bash
    while read line
    do
    Ip=`echo $line|awk '{print $1}'`
    Passwd=`echo $line|awk '{print $2}'`
    ssh -n localhost "cat -"
    sshpass -p "$Passwd" ssh -n -t -o StrictHostKeyChecking=no root@$Ip "id"
    done<iplist.txt

    #版本2
    #!/bin/bash
    Iplist=`awk '{print $1}' iplist.txt`
    for Ip in $Iplist
    do
    Passwd=`awk '/'$Ip'/{print $2}' iplist.txt`
    sshpass -p "$Passwd" ssh -n -t -o StrictHostKeyChecking=no root@$Ip "id"
    done

}

在同一位置打印字符{

    #!/bin/bash
    echo -ne "\t"
    for i in `seq -w 100 -1 1`
    do
        echo -ne "$i\b\b\b";      # 关键\b退格
        sleep 1;
    done

}

多进程后台并发简易控制{

    #!/bin/bash
    test () {
        echo $a
        sleep 5
    }
    for a in `seq 1 30`
    do
        test &
        echo $!
        ((num++))
        if [ $num -eq 6 ];then
        echo "wait..."
        wait
        num=0
        fi
    done
    wait

}

shell并发{

    #!/bin/bash
    tmpfile=$$.fifo   # 创建管道名称
    mkfifo $tmpfile   # 创建管道
    exec 4<>$tmpfile  # 创建文件标示4,以读写方式操作管道$tmpfile
    rm $tmpfile       # 将创建的管道文件清除
    thred=4           # 指定并发个数
    seq=(1 2 3 4 5 6 7 8 9 21 22 23 24 25 31 32 33 34 35) # 创建任务列表

    # 为并发线程创建相应个数的占位
    {
    for (( i = 1;i<=${thred};i++ ))
    do
        echo;  # 因为read命令一次读取一行,一个echo默认输出一个换行符,所以为每个线程输出一个占位换行
    done
    } >&4      # 将占位信息写入管道

    for id in ${seq}  # 从任务列表 seq 中按次序获取每一个任务
    do
      read  # 读取一行,即fd4中的一个占位符
      (./ur_command ${id};echo >&4 ) &   # 在后台执行任务ur_command 并将任务 ${id} 赋给当前任务;任务执行完后在fd4种写入一个占位符
    done <&4    # 指定fd4为整个for的标准输入
    wait        # 等待所有在此shell脚本中启动的后台任务完成
    exec 4>&-   # 关闭管道

}

shell并发函数{

    function ConCurrentCmd()
    {
        #进程数
        Thread=30

        #列表文件
        CurFileName=iplist.txt

        #定义fifo文件
        FifoFile="$$.fifo"

        #新建一个fifo类型的文件
        mkfifo $FifoFile

        #将fd6与此fifo类型文件以读写的方式连接起来
        exec 6<>$FifoFile
        rm $FifoFile

        #事实上就是在文件描述符6中放置了$Thread个回车符
        for ((i=0;i<=$Thread;i++));do echo;done >&6

        #此后标准输入将来自fd5
        exec 5<$CurFileName

        #开始循环读取文件列表中的行
        Count=0
        while read -u5 line
        do
            read -u6
            let Count+=1
            # 此处定义一个子进程放到后台执行
            # 一个read -u6命令执行一次,就从fd6中减去一个回车符,然后向下执行
            # fd6中没有回车符的时候,就停在这了,从而实现了进程数量控制
            {
                echo $Count

                #这段代码框就是执行具体的操作了
                function

                echo >&6
                #当进程结束以后,再向fd6中追加一个回车符,即补上了read -u6减去的那个
            } &
        done

        #等待所有后台子进程结束
        wait

        #关闭fd6
        exec 6>&-

        #关闭fd5
        exec 5>&-
    }

    并发例子{

        #!/bin/bash

        pnum=3

        task () {
            echo "$u start"
            sleep 5
            echo "$u done"
        }

        FifoFile="$$.fifo"
        mkfifo $FifoFile
        exec 6<>$FifoFile
        rm $FifoFile
        
        for ((i=0;i<=$pnum;i++));do echo;done >&6

        for u in `seq 1 20`
        do
            read -u6
            {
                task
                [ $? -eq 0 ] && echo "${u} 次成功" || echo "${u} 次失败"
                echo >&6
            } &
        done
        wait
        exec 6>&-

    }
}

函数{

    ip(){
        echo "a 1"|awk '$1=="'"$1"'"{print $2}'
    }
    web=a
    ip $web

}

检测软件包是否存在{

    rpm -q dialog >/dev/null
    if [ "$?" -ge 1 ];then
        echo "install dialog,Please wait..."
        yum -y install dialog
        rpm -q dialog >/dev/null
        [ $? -ge 1 ] && echo "dialog installation failure,exit" && exit
        echo "dialog done"
        read
    fi

}

游戏维护菜单-修改配置文件{

    #!/bin/bash

    conf=serverlist.xml
    AreaList=`awk -F '"' '/<s/{print $2}' $conf`

    select area in $AreaList 全部 退出
    do
        echo ""
        echo $area
        case $area in
        退出)
            exit
        ;;
        *)
            select operate in "修改版本号" "添加维护中" "删除维护中" "返回菜单"
            do
                echo ""
                echo $operate
                case $operate in
                修改版本号)
                    echo 请输入版本号
                    while read version
                    do
                        if echo $version | grep -w 10[12][0-9][0-9][0-9][0-9][0-9][0-9]
                        then
                            break
                        fi
                        echo 请从新输入正确的版本号
                    done
                    case $area in
                    全部)
                        case $version in
                        101*)
                            echo "请确认操作对 $area 体验区 $operate"
                            read
                            sed -i 's/101[0-9][0-9][0-9][0-9][0-9][0-9]/'$version'/' $conf
                        ;;
                        102*)
                            echo "请确认操作对 $area 正式区 $operate"
                            read
                            sed -i 's/102[0-9][0-9][0-9][0-9][0-9][0-9]/'$version'/' $conf
                        ;;
                        esac
                    ;;
                    *)
                        type=`awk -F '"' '/'$area'/{print $14}' $conf |cut -c1-3`
                        readtype=`echo $version |cut -c1-3`
                        if [ $type != $readtype ]
                        then
                            echo "版本号不对应,请从新操作"
                            continue
                        fi

                        echo "请确认操作对 $area 区 $operate"
                        read

                        awk -F '"' '/'$area'/{print $12}' $conf |xargs -i sed -i '/'{}'/s/10[12][0-9][0-9][0-9][0-9][0-9][0-9]/'$version'/' $conf
                    ;;
                    esac
                ;;
                添加维护中)
                    case $area in
                    全部)
                        echo "请确认操作对 $area 区 $operate"
                        read
                        awk -F '"' '/<s/{print $2}' $conf |xargs -i sed -i 's/'{}'/&维护中/' $conf
                    ;;
                    *)
                        echo "请确认操作对 $area 区 $operate"
                        read
                        sed -i 's/'$area'/&维护中/' $conf
                    ;;
                    esac
                ;;
                删除维护中)
                    case $area in
                    全部)
                        echo "请确认操作对 $area 区 $operate"
                        read
                        sed -i 's/维护中//' $conf
                    ;;
                    *)
                        echo "请确认操作对 $area 区 $operate"
                        read
                        sed -i '/'$area'/s/维护中//' $conf
                    ;;
                    esac
                ;;
                返回菜单)
                    break
                ;;
                esac
            done
        ;;
        esac
        echo "回车重新选择区"
    done

}

keepalive剔除后端服务{

    #!/bin/bash
    #行数请自定义,默认8行
    if [ X$2 == X ];then
        echo "error: IP null"
        read
        exit
    fi
    case $1 in
    del)
        sed -i '/real_server.*'$2'.*8888/,+8 s/^/#/' /etc/keepalived/keepalived.conf
        /etc/init.d/keepalived reload
    ;;
    add)
        sed -i '/real_server.*'$2'.*8888/,+8 s/^#//' /etc/keepalived/keepalived.conf
        /etc/init.d/keepalived reload
    ;;
    *)
        echo "Parameter error"
    ;;
    esac

}

抓取系统中负载最高的进程{

    #!/bin/bash
    LANG=C
    PATH=/sbin:/usr/sbin:/bin:/usr/bin
    interval=1
    length=86400
    for i in $(seq 1 $(expr ${length} / ${interval}));do
    date
    LANG=C ps -eT -o%cpu,pid,tid,ppid,comm | grep -v CPU | sort -n -r | head -20
    date
    LANG=C cat /proc/loadavg
    { LANG=C ps -eT -o%cpu,pid,tid,ppid,comm | sed -e 's/^ *//' | tr -s ' ' | grep -v CPU | sort -n -r | cut -d ' ' -f 1 | xargs -I{} echo -n "{} + " && echo ' 0'; } | bc -l
    sleep ${interval}
    done
    fuser -k $0

}

申诉中国反垃圾邮件联盟黑名单{

    #!/bin/bash

    IpList=`awk '$1!~"^#"&&$1!=""{print $1}' host.list`

    QueryAdd='http://www.anti-spam.org.cn/Rbl/Query/Result'
    ComplaintAdd='http://www.anti-spam.org.cn/Rbl/Getout/Submit'

    CONTENT='我们是一家正规的XXX。xxxxxxx。恳请将我们的发送服务器IP移出黑名单。谢谢!
    处理措施:
    1.XXXX。
    2.XXXX。'
    CORP='abc.com'
    WWW='www.abc.cm'
    NAME='def'
    MAIL='def@163.com.cn'
    TEL='010-50000000'
    LEVEL='0'

    for Ip in $IpList
    do
        Status=`curl -d "IP=$Ip" $QueryAdd |grep 'Getout/ShowForm?IP=' |grep -wc '申诉脱离'`
        if [ $Status -ge 1 ];then
            IpStatus="黑名单中"
            results=`curl -d "IP=${Ip}&CONTENT=${CONTENT}&CORP=${CORP}&WWW=${WWW}&NAME=${NAME}&MAIL=${MAIL}&TEL=${TEL}&LEVEL=${LEVEL}" $ComplaintAdd |grep -E '您的黑名单脱离申请已提交|该IP的脱离申请已被他人提交|申请由于近期内有被拒绝的记录'`
            echo $results
            if echo $results | grep '您的黑名单脱离申请已提交'  > /dev/null 2>&1
            then
                complaint='申诉成功'
            elif echo $results | grep '该IP的脱离申请已被他人提交'  > /dev/null 2>&1
            then
                complaint='申诉重复'
            elif echo $results | grep '申请由于近期内有被拒绝的记录'  > /dev/null 2>&1
            then
                complaint='申诉拒绝'
            else
                complaint='异常'
            fi
        else
            IpStatus='正常'
            complaint='无需申诉'
        fi
        echo "$Ip    $IpStatus    $complaint" >> $(date +%Y%m%d_%H%M%S).log
    done

}

Web Server in Awk{

    #gawk -f file
    BEGIN {
      x        = 1                         # script exits if x < 1
      port     = 8080                      # port number
      host     = "/inet/tcp/" port "/0/0"  # host string
      url      = "http://localhost:" port  # server url
      status   = 200                       # 200 == OK
      reason   = "OK"                      # server response
      RS = ORS = "\r\n"                    # header line terminators
      doc      = Setup()                   # html document
      len      = length(doc) + length(ORS) # length of document
      while (x) {
         if ($1 == "GET") RunApp(substr($2, 2))
         if (! x) break
         print "HTTP/1.0", status, reason |& host
         print "Connection: Close"        |& host
         print "Pragma: no-cache"         |& host
         print "Content-length:", len     |& host
         print ORS doc                    |& host
         close(host)     # close client connection
         host |& getline # wait for new client request
      }
      # server terminated...
      doc = Bye()
      len = length(doc) + length(ORS)
      print "HTTP/1.0", status, reason |& host
      print "Connection: Close"        |& host
      print "Pragma: no-cache"         |& host
      print "Content-length:", len     |& host
      print ORS doc                    |& host
      close(host)
    }

    function Setup() {
      tmp = "<html>\
      <head><title>Simple gawk server</title></head>\
      <body>\
      <p><a href=" url "/xterm>xterm</a>\
      <p><a href=" url "/xcalc>xcalc</a>\
      <p><a href=" url "/xload>xload</a>\
      <p><a href=" url "/exit>terminate script</a>\
      </body>\
      </html>"
      return tmp
    }

    function Bye() {
      tmp = "<html>\
      <head><title>Simple gawk server</title></head>\
      <body><p>Script Terminated...</body>\
      </html>"
      return tmp
    }

    function RunApp(app) {
      if (app == "xterm")  {system("xterm&"); return}
      if (app == "xcalc" ) {system("xcalc&"); return}
      if (app == "xload" ) {system("xload&"); return}
      if (app == "exit")   {x = 0}
    }

}

}

10 经验{ 1.服务上线,在启动注册流量时大量报错, 下游服务摘除,重启后, 上游还用原有的链接去链接, 导致请求失败. 2.systemd守护的进程,在tmp下找不到对应文件, 配置安全tmp项PrivateTmp改为false PrivateTmp=false 3.统一服务内部调用关系,一个服务对应一个域名 4.统一服务服务返回的状态码,报警只需要针对5xx就可以发现问题. 5.在服务雪崩后,恢复服务,用户可能有大量重试,所以放流量也要小比例放流量,逐步恢复 }

不定期更新下载地址: https://github.com/liquanzhou/ops_doc

请勿删除信息, 植入广告, 抵制不道德行为

相关文章

CoreDNS 完整部署与管理指南
·4292 字·21 分钟
DNS 网络服务 系统管理 Coredns Dns Systemd 网络服务 服务器管理 容器化
K3s 集群修改 Flannel CNI 插件网络模式
·418 字·2 分钟
K3s Openwrt 网络 Flannel N1 Linux
企业级 CentOS 7 系统初始化与优化完整指南
·2893 字·14 分钟
Linux Centos Centos7 Linux System-Optimization Server-Hardening Production-Deployment