前言:
每每发现用系统命令可以快速解决问题时,就会感叹,发明创造计算机理论和创造unix系统的奠基人,是多么的高大
00查询当前目录下的所有以 txt,pdf结尾的文件
find . ( -name ".txt" -o -name ".pdf" ) -print
cd - 跳转到上次的目录
01建立软链接
ln -s /usr/local/bin/xxx /usr/bin/xxxx
02将本地的文件传给服务器(类unix)
scp file username@ip:path
将本地的目录传给服务器(类unix)
scp -r directory username@ip:path
03查看流量 流速(需要下载安装)
iftop -n
04挂载
[利用mount命令将另外一个linux服务器上的目录挂在到本机]
被挂载机(文件服务器):192.168.1.100
挂载到机(实际上传文件机):192.168.1.200
主要是利用NFS服务来完成:
你先要在192.168.1.100上开启NFS服务并编辑/etc/exports文件:
chkconfig --level 35 nfs on ;开启NFS启机运行
service nfs start ;手动启动服务
vi /etc/exports,
加入:
/fileserver 192.168.1.200 (rw,sync,no_root_squash) ;编辑需要共享的目录和允许访问的服务器及权限。
还如:
/opt/apache-tomcat-6.0.37/webapps/fileShare/file * (rw,sync,no_root_squash)
/mnt * (ro,sync)
然后到192.168.1.200
mkdir /fileserver
chmod 777 -R /fileserver
mount 192.168.1.100: /fileserver /fileserver
05定时任务
crontab -e
crontab -l
这个星期是错的 应该是0-6 0是周日 6是周六
06 检查网络端口通否
定时任务 打包备份log并以日期.tar命名 (ubuntu的坑 普通用户用 sudo crontab -e 打开 才执行)
0 2 * * * cd /var/log && sudo tar -cvf 20date +%y-%m-%d
.tar dpkg.log mysql.log fontconfig.log &&sudo mv /var/log/20date +%y-%m-%d.tar
/home/shiyanlou/backup
07检查服务器的负载率
命令 uptime
倒数第三个是是一分钟的负载率,负载率是否过高和cpu数量有关
08 && 连接符
当用到cp命令时候可以先建mkdir test_log && cp 2017-08-25.log test_logΩ新目录并将log存在里边是用到
mkdir test_log && cp 2017-08-25.log test_log
09统计行号字节数wc
cat 2017-08-25.log |wc
10 sed -e 去掉某行
sed -e '1,3d' 1.log
11grep 过滤
在日志文件中寻找指定关键字的内容
grep network net.cfg 在net.cfg中寻找network出现的地方
12 unqi去掉重复的行
uniq 1.log去掉了重复的了
找出重复的内容
uniq -d 1.log
13 zip压缩包
安装 get-install zip
单文件 zip 压缩包名称 要被压缩的文件
zip 20171206log.zip 2017-12-06.log
14 启动某服务
sudo systemctl start elasticsearch
15 开机自启
sudo systemctl enable elasticsearch
16 查看硬盘容量 可视化,不是以kb为单位
df -lh
17 查看某个进程在否
ps -aux |grep mysql