CMDB和运维自动化
一、运维
运维,指的是对已经搭建好的网络,软件,硬件进行维护。运维领域也是细分的,有硬件运维和软件运维
- 硬件运维主要包括对基础设施的运维,比如机房的设备,主机的硬盘,内存这些物理设备的维护
- 软件运维主要包括系统运维和应用运维,系统运维主要包括对OS,数据库,中间件的监控和维护,这些系统介于设备和应用之间,应用运维主要是对线上业务系统的运维
讨论的主要是软件运维的自动化,包括系统运维和应用运维的自动化
二、软件运维
传统运维
- 日常工作繁琐
日常运维工作是比较繁琐的,研发同学会经常需要到服务器上查日志,重启应用,或者是说今天上线某个产品,需要部署下环境。这些琐事是传统运维的大部分工作
- 应用运行环境不统一
在部署某应用后,应用不能访问,就会听到开发人员说,在我的环境运行很好的,怎么部署到测试环境后,就不能用了,因为各类环境的类库不统一 还有一种极端情况,运维人员习惯不同,可能凭自己的习惯来安装部署软件,每种服务器上运行软件的目录不统一
- 运维及部署效率低下
想想运维人员需要登陆到服务器上执行命令,部署程序,不仅效率很低,并且非常容易出现人为的错误,一旦手工出错,追溯问题将会非常不容易
- 无用报警信息过多
经常会收到很多报警信息,多数是无用的报警信息,造成运维人员经常屏蔽报警信 另外如果应用的访问速度出了问题,总是需要从系统、网络、应用、数据库等一步步的查找原因
- 资产管理和应用管理混乱
经常会收到很多报警信息,多数是无用的报警信息,造成运维人员经常屏蔽报警信 另外如果应用的访问速度出了问题,总是需要从系统、网络、应用、数据库等一步步的查找原因
自动化运维
针对传统运维的痛点,我们可以知道自动化运维需要支持哪些功能
运维自动化最重要的就是标准化一切
- OS的选择统一化,同一个项目使用同样的OS系统部署其所需要的各类软件
- 软件安装标准化,例如JAVA虚拟机,php,nginx,mysql等各类应用需要的软件版本,安装目录,数据存放目录,日志存放目录等
- 应用包目录统一标准化,及应用命名标准化
- 启动脚本统一目录和名字,需要变化的部分通过参数传递
- 配置文件标准化,需要变化的部分通过参数传递
- 日志输出,日志目录,日志名字标准化
- 应用生成的数据要实现统一的目录存放
- 主机/虚拟机命名标准化,虚拟机管理使用标准化模板
- 使用docker比较容易实现软件运行环境的标准化
三、CMDB
功能
- 用户管理,记录测试,开发,运维人员的用户表
- 业务线管理,需要记录业务的详情
- 项目管理,指定此项目用属于哪条业务线,以及项目详情
- 应用管理,指定此应用的开发人员,属于哪个项目,和代码地址,部署目录,部署集群,依赖的应用,软件等信息
- 主机管理,包括云主机,物理机,主机属于哪个集群,运行着哪些软件,主机管理员,连接哪些网络设备,云主机的资源池,存储等相关信息
- 主机变更管理,主机的一些信息变更,例如管理员,所属集群等信息更改,连接的网络变更等
- 网络设备管理,主要记录网络设备的详细信息,及网络设备连接的上级设备
- IP管理,IP属于哪个主机,哪个网段, 是否被占用等
CMDB实现的方式
1.Agent实现方式
Agent实现方式,可以将服务器上面的Agent程序作定时任务,定时将资产信息提交到指定API录入数据库
实现流程
1.在每台服务器上都有一个agent脚本,也就是python程序,其核心就是subprocess模块的subprocess.getoutput('命令') 2.每天定时触发subprocess.getoutput('命令'),其返回值是命令的执行结果,将其发送到API中 3.API会把收到的数据进行处理,然后再存储到db,也就是数据库中 4.用户就可以通过后台管理系统,直观的看到每台服务器的各种信息 # 优缺点 # 优点 1.执行速度快,适用于拥有超多服务器的大型公司 # 缺点 1.每台服务器都必须部署一个agent脚本
核心代码
# 通过subprocess模块,在本地端运行命令,获取信息 import subprocess res = subprocess.getoutput('ipconfig') # 模拟对返回数据的切分 print(res[5:6]) # request模块 import requests # http://127.0.0.1:8000/asset/:是API的一个接口,通过request模块发送请求并携带切分后的数据,交给API,API会存入到数据库 res = requests.post('http://127.0.0.1:8000/asset/', data={"ip":res[5:6]})
2.SSH实现方式(基于Paramiko模块)
中控机通过Paramiko(py模块)登录到各个服务器上,然后执行命令的方式去获取各个服务器上的信息
实现流程
1.与agent的不同,SSH实现方式是把python代码放在了单独的的一个服务器上,这个服务器称之为中控机 2.中控机通过Paramiko模块以SSH方式链接,向服务器发送命令,然后获得其返回数据,并转交给API 3.API会把收到的数据进行处理,然后再存储到db,也就是数据库中 4.用户就可以通过后台管理系统,直观的看到每台服务器的各种信息 # 优缺点 # 优点 1.相比agent方式,不用在每台服务器上都放一份脚本 2.适用于服务器较少的场景 # 缺点 1.这种方式会限制于网络,所以速度慢 2.需要部署一台中控机
核心代码
import paramiko # 创建SSH对象 ssh = paramiko.SSHClient() # 允许连接不在know_hosts文件中的主机 ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy()) # 连接服务器 ssh.connect(hostname='10.0.0.100', port=22, username='root', password='1') # 执行命令 stdin, stdout, stderr = ssh.exec_command('ifconfig') # 获取命令结果 result = stdout.read() print(result) # 关闭连接 ssh.close()
3.saltstack方式
通过第三方软件来实现链接服务器并执行命令
实现流程
1.该方案与第二种方案类似,但是却依靠第三方软件saltstack,saltstack有两个身份,master和minion,也就是主人和奴隶,我们可以给中控机分配master的身份来控制所有的minion服务器 2.中控机salt-master通过salt 'minion主机名' cmd.run '命令',向服务器minion发送命令,minion会把执行结果放到队列中,然后master从队列中取出数据,并转交给API 3.API会把收到的数据进行处理,然后再存储到db,也就是数据库中 4.用户就可以通过后台管理系统,直观的看到每台服务器的各种信息 # 优缺点 # 优点 1.执行速度快,开发成本低 # 缺点 1.比较依赖于第三方软件 2.需要部署一台中控机
saltstack的安装、配置及使用
master端: # 1.安装salt-master yum install salt-master -y # 2.修改配置文件:/etc/salt/master vim /etc/salt/master interface: 10.0.0.100 # Master的IP # 3.启动 service salt-master start slave端: # 1.安装salt-minion yum install salt-minion -y # 2.修改配置文件 /etc/salt/minion vim /etc/salt/minion # 单个master master: 10.0.0.100 # master的地址 # 多个master master: - 10.211.55.4 - 10.211.55.5 random_master: True id: c2.salt.com # 客户端在salt-master中显示的唯一ID # 3.启动 service salt-minion start # 4.使用 # master服务器上对salve进行远程操作 salt 'minion主机名' cmd.run '命令'
来源:https://www.cnblogs.com/xvchengqi/p/10241162.html