最近在做一些性能测试的事情,首要前提是控制住 CPU 的使用量。最直观的方法无疑是安装 Docker,在每个配置了参数的容器里运行基准程序。
对于计算密集型任务,在只限制 CPU 的需求下,直接用 Linux 原生的 cgroup 功能来限制 CPU 使用无疑是最方便的。
本文简要说明如何使用 cgroup 的 cpuset 控制器限制进程只使用某几个 CPU,更准确的说是某个几个逻辑核。
1. 查看 CPU 配置
常用的配置可以用如下 BASH 命令查看。
1 2 3 |
|
特别地,启用了超线程的话,每个 CPU 物理核心会模拟出 2 个线程,也叫逻辑核。判断方式如下:
1 |
|
2. 什么是 NUMA
这里提到一个概念叫 NUMA,主机板上如果插有多块 CPU 的话,那么就是 NUMA 架构。每块 CPU 独占一块面积,一般都有独立风扇。
一个 NUMA 节点包含了直连在该区域的 CPU、内存等硬件设备,通信总线一般是 PCI-E。由此也引入了 CPU 亲和性的概念,即 CPU 访问同一个 NUMA 节点上的内存的速度大于访问另一个节点的。
执行以下命令,以查看本机的 NUMA 结构。
1 2 3 4 5 6 7 8 9 10 11 12 |
|
一个 NUMA 节点包括一个内存节点和属于同一块 CPU 的若干个逻辑核,请记住它们的编号,将在配置 cpuset 中用到。
在此解释下“node distance”,访问本节点的内存的通信成本是常量值 10,操作系统以此基准来量化访问其他 NUMA 节点上内存的代价。
3. 创建 cgroup 并配置资源使用
内核版本较高(>=2.6.24)的 Linux 发行版都内置了 cgroup,可以执行以下命令验证一下。
1 2 3 4 5 6 7 8 9 10 11 12 |
|
如果没有的话,也可以执行一段简单的脚本呢,来一次性挂载齐全。
1 2 3 4 5 6 7 |
|
cgroup 针对每一种资源都提供了相应的控制器来进行配置,在 Linux 中以文件系统的形式呈现。本文只涉及进程在物理核上的放置,因此来看一下 cpuset 目录下有什么。
1 2 3 4 5 6 7 8 9 10 11 |
|
如果要使用 cpuset 控制器,需要同时配置 cpuset.cpus 和 cpuset.mems 两个文件(参数)。这两个文件接受用短横线和逗号表示的区间,如“0-7,16-23”。如果对应的资源不存在,那么写入的时候会报错。
不建议直接在控制器的根目录下配置,通过创建子目录的形式可以同时维持多个控制器。执行如下命令,限制 tiger 控制组下所有进程只能使用逻辑核0和1。
1 2 |
|
对于 cpuset.mems 参数而言,每个内存节点和 NUMA 节点一一对应。如果进程的内存需求量较大,可以把所有的 NUMA 节点都配置进去。这里就用到了 NUMA 的概念。出于性能的考虑,配置的逻辑核和内存节点一般属于同一个 NUMA 节点,可用“numactl --hardware”命令获知它们的映射关系。
4. 验证效果
在 cpuset 的所有配置文件中,tasks 和 cgroups.procs 是用来管理控制组中的进程的。执行以下命令,把当前会话加入刚刚创建的控制组里,本会话发起的所有命令(子进程)都会收到 cpu 使用的约束。
1 |
|
两个配置项基本是等价的,但有一小点不同。操作系统以线程为调度单位,将一个一般的 pid 写入到 tasks 中,只有这个 pid 对应的线程,以及由它产生的其他进程、线程会属于这个控制组。而把 pid 写入 cgroups.procs,操作系统则会把找到其所属进程的所有线程,把它们统统加入到当前控制组。
进程在加入一个控制组后,控制组所对应的限制会即时生效。启动一个计算密集型的任务,申请用 4 个逻辑核。
1 2 3 |
|
观察 CPU 的使用情况来验证效果,只有编号为 0 和 1 的两个逻辑核在工作,用户态的比例高达 100%。
1 2 3 4 5 6 |
|
来源:oschina
链接:https://my.oschina.net/u/866802/blog/3068487