awk命令

zabbix监控服务

浪尽此生 提交于 2019-12-05 11:27:17
1.模板的重要 ​ 1.手动添加监控比较麻烦,监控项 -> 图形 -> 触发器。 问题: 1.例如: 100台服务器需要检查81端口 2.例如: 100台服务器81改成82 解决: 使用模板可以解决以上问题, 只需要修改一下模板,然后所有的主机都生效 2.两种模板 系统自带模板 自定义模板 自定义模板的使用 1.创建模板,模板得属于某个主机组(Templates) 2.在模板中创建监控项目、触发器、创建图形 3.新增监控主机时添加对应的模板 4.更改模板的监控项,所以使用模板的主机都会自动变更 建议: 监控的时候都使用模板, 因为模板添加啥的都方便,修改也比较方便 3.zabbix监控windows 环境: 1.zabbix server的ip:10.0.0.71 2.被监控windows的ip:10.0.0.1 1.下载Zabbix Agent https://www.zabbix.com/downloads/4.0.14/zabbix_agents-4.0.14-win-amd64.zip 2.Windows安装zabbix agent 编辑配置文件D:\zabbix_agents-4.0.14-win-amd64\conf\zabbix_agentd.conf Server=10.0.0.71 3.运行cmd,将zabbix命令注册为服务(使用管理员) services

精通awk系列(3):铺垫知识:读取文件的几种方式

二次信任 提交于 2019-12-05 09:08:24
回到: Linux系列文章 Shell系列文章 awk系列文章 读取文件的几种方式 读取文件有如下几种常见的方式: 下面使用Shell的read命令来演示前4种读取文件的方式(第五种按字节数读取的方式read不支持)。 按字符数量读取 read的-n选项和-N选项可以指定一次性读取多少个字符。 # 只读一个字符 read -n 1 data <a.txt # 读100个字符,但如果不足100字符时遇到换行符则停止读取 read -n 100 data < a.txt # 强制读取100字符,遇到换行符也不停止 read -N 100 data < a.txt 如果按照字符数量读取,直到把文件读完,则使用while循环,且将文件放在while结构的后面,而不能放在while循环的条件位置: # 正确 while read -N 3 data;do echo "$data" done <a.txt # 错误 while read -N 3 data < a.txt;do echo "$data" done 按分隔符读取 read命令的-d选项可以指定读取文件时的分隔符。 # 一直读取,直到遇到字符m才停止,并将读取的数据保存到data变量中 read -d "m" data <a.txt 如果要按分隔符读取并读完整个文件,则使用while循环: while read -d "m"

挖矿病毒入侵-分析总结

…衆ロ難τιáo~ 提交于 2019-12-05 07:57:10
  最近,托管云平台出现大量的挖矿病毒;没有安全意识的小伙伴们就只能乖乖交智商睡了;   抓了好几次,终于反过来抓到入侵脚本;在此做下简单的分析,希望能给大伙一些小小的灵感; ##一个朴实无华的脚本,base64 编码,一脸懵逼;要不是从 /proc/PID 找到线索,还真得被毒打一顿; #!/bin/bash exec &>/dev/null sleep $((RANDOM % 600)) {echo

iOS应用安全之代码混淆实现篇

感情迁移 提交于 2019-12-05 05:55:47
1.iOS应用安全之代码混淆设计篇 2.iOS应用安全之代码混淆实现篇 针对 设计篇 描述的大致思路,现在针对各个问题点,给出实现方法 该脚本大致使用的工具如下:vi、grep、sed、find、awk、cut、sort、uniq、cat、md5等。 针对要加密的内容,分别给出关键字提取脚本命令。 脚本中 $ROOTFOLDER代表工程根目录, $EXCLUDE_DIR 代表要排除的目录,举例如下: ROOTFOLDER="demoProject" EXCLUDE_DIR="--exclude-dir=*.framework --exclude-dir=include --exclude-dir=libraries --exclude-dir=Libs --exclude-dir=lib" 关键字提取 1.文件名 第一步先将包含路径的文件名写入文件 find $ROOTFOLDER -type f | sed "/\/\./d" >f.list 第二步文件中提取文件名 cat f_rep.list | awk -F/ '{print $NF;}'| awk -F. '{print $1;}' | sed "/^$/d" | sort | uniq 但从文件名提取的功能上,上面两个步骤完全可以合并为一步,但是在实际功能实现中还是要求将上面分为两步的 2.类名 grep -h -r

正则表达式BREs,EREs,PREs的比较

痴心易碎 提交于 2019-12-04 12:06:54
目录 正则表达式BREs,EREs,PREs的比较 正则表达式分类: Linux 中常用文本工具与正则表达式的关系 grep , egrep 正则表达式特点: sed 正则表达式特点 Awk(gawk)正则表达式特点 常见3中类型正则表达式比较 正则表达式BREs,EREs,PREs的比较 首先正则表达式分为三类(man grep可以看到,分别是basic RegExs,extended RegExs,perl RegExs) 正则表达式:在计算机科学中,是指一个用来描述或者匹配一系列符合某个句法规则的字符串的单个字符串。在很多文本编辑器或其他工具里,正则表达式通常被用来检索或替换那些符合某个模式的文本内容。正则表达式这个概念最初是由Unix中的工具软件(例如sed和grep)普及开的。 正则表达式分类: 1、基本的正则表达式(Basic Regular Expression 又叫 Basic RegEx 简称 BREs) 2、扩展的正则表达式(Extended Regular Expression 又叫 Extended RegEx 简称 EREs) 3、Perl 的正则表达式(Perl Regular Expression 又叫 Perl RegEx 简称 PREs) 说明:只有掌握了正则表达式,才能全面地掌握 Linux 下的常用文本工具(例如:grep、egrep、GUN

3

女生的网名这么多〃 提交于 2019-12-04 09:45:48
Linux-day03 显示/etc/services文件的第11行到第20行的内容 [root@qls ~]# head -20 /etc/services | tail [root@qls ~]# grep -n '.' /etc/services | grep -A 9 '^11:' 文件查找命令 locate #根据本地数据库进行查找 yum install mlocate -y #下载软件包 [root@qls ~]# updatedb #需要更新数据库 [root@qls ~]# locate -r hostname$ #支持正则,需加-r选项 /etc/hostname /etc/selinux/targeted/active/modules/100/hostname /usr/bin/hostname /usr/bin/nmtui-hostname /usr/lib64/gettext/hostname which #查找命令的绝对路径 [root@qls ~]# which hostname /usr/bin/hostname whereis #查找文件 [root@qls ~]# whereis hostname hostname: /usr/bin/hostname /etc/hostname /usr/share/man/man1/hostname.1.gz

docker批量操作命令汇总

别说谁变了你拦得住时间么 提交于 2019-12-04 09:09:32
## 背景 > 在开发过程中经常会遇到批量创建容器,拉取镜像等一系列的操作,如果手动一个一个的操作,那将浪费很多时间,而且毫无技术含量,因此要提高工作效率,必须让这些动作能够实现自动化,最不济也要实现半自动化,下面介绍一些我最常用的一些脚本工具。 ##场景分析 - 批量停止并删除容器(filter为需要处理的容器共同标识符) >通常我们在测试某个服务时,可能会涉及多个工具,比如web服务,我们需要启动tomcat服务器、数据库,nginx等(存在一种情况,在启动容器时需要给每个容器设定一个名字,设定名字有一个好处,我们可以把一组相互协作的容器设定为相同的前缀,一方面方便管理,另一方面,易于实现自动化),如果web服务启动失败了或者需要停止容器,则需要重启,重启时就会发生容器名字冲突,一种较好的方式就是清掉启动失败的容器,再重启。 停止容器(适用于具有相同的容器名前缀或者各个镜像的名字类似) ``` docker ps | grep filter | awk '{print $1}' | xargs docker stop #该条命令分为四部分,docker ps, grep filter, awk '{print $1}', xargs docker stop docker ps 用于列出所有正常运行的容器 |grep filter 将上一命令的结果通过管道传给过滤器

Linux 笔记

∥☆過路亽.° 提交于 2019-12-03 16:58:07
1.shell 四舍五入 echo 1 |awk 'BEGIN {printf "%.0f\n",((51/10))} =>5 echo 1 |awk 'BEGIN {printf "%.0f\n",((56/10))}' =>6 2.shell 向上取整 echo 1 |awk '{print int(100/3)==(100/3)?int(100/3):int(100/3)+1}' 3.监控命令执行情况 watch -n 1 ls -l 4.赋值时,左值包含变量 例如a='11' b_$a=20会报错 用eval b_$a=20正常 5.变量传递 a=10 b=a echo $b =>a echo ${!b} =>10 来源: https://www.cnblogs.com/xia-dong/p/11803617.html

awk命令

偶尔善良 提交于 2019-12-03 13:32:05
自己的小网站跑在阿里云的ECS上面,偶尔也去分析分析自己网站服务器日志,看看网站的访问量。看看有没有黑阔搞破坏!于是收集,整理一些服务器日志分析命令,大家可以试试! 1、查看有多少个IP访问: awk '{print $1}' log_file|sort|uniq|wc -l 2、查看某一个页面被访问的次数: grep "/index.php" log_file | wc -l 3、查看每一个IP访问了多少个页面: awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt sort -n -t ' ' -k 2 log.txt 配合sort进一步排序 4、将每个IP访问的页面数进行从小到大排序: awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n 5、查看某一个IP访问了哪些页面: grep ^111.111.111.111 log_file| awk '{print $1,$7}' 6、去掉搜索引擎统计的页面: awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l 7

nginx总结

痴心易碎 提交于 2019-12-03 10:46:51
log_format⽤用于设置⽇日志格式,格式为log_format 格式名 样式 配置字段http 默认的combined log_format combined '$remote_addr - $remote_user [$time_local] ' ' "$request" $status $body_bytes_sent ' ' "$http_referer" "$http_user_agent" ‘; 不不需要配置,默认的,如果在配置会提示重复nginx: [emerg] duplicate "log_format" name "combined" in /etc/nginx/nginx.conf:45 $server_name:虚拟主机名称 $remote_addr:远程客户端的IP地址 $remote_user:远程客户端⽤用户名称,⽤用于记录浏览者进⾏行行身份验证时提供的名字,⽆无则空⽩白 [$time_local]:访问的时间与时区[12/Jun/2016:20:18:19 +0800] $request:请求的URI和HTTP协议(*) $status:记录请求返回的http状态码 200/301/302/404/403/400/502 $http_referer:来源 $http_user_agent:客户端浏览器器信息 $http_x_forwarded