比如設定任務運行時使用的內存上限,一旦超出就發 OOM。
優先級分配:通過分配的 CPU 時間片數量和磁盤 IO 帶寬,實際上就等同于控制了任務運行的優先級。
資源統計:cgoups 可以統計系統的資源使用量,比如 CPU 使用時長、內存用量等。這個功能非常適合當前云端產品按使用量計費的方式。
任務控制:cgroups 可以對任務執行掛起、恢復等操作。

相關概念

Task(任務) 在 linux 系統中,內核本身的調度和管理并不對進程和線程進行區分,只是根據 clone 時傳入的參數的不同來從概念上區分進程和線程。這里使用 task 來表示系統的一個進程或線程。

Cgroup(控制組) cgroups 中的資源控制以 cgroup 為單位實現。Cgroup 表示按某種資源控制標準劃分而成的任務組,包含一個或多個子系統。一個任務可以加入某個 cgroup,也可以從某個 cgroup 遷移到另一個 cgroup。

Subsystem(子系統) cgroups 中的子系統就是一個資源調度控制器(又叫 controllers)。比如 CPU 子系統可以控制 CPU 的時間分配,內存子系統可以限制內存的使用量。以筆者使用的 Ubuntu 16.04.3 為例,其內核版本為 4.10.0,支持的 subsystem 如下( cat /proc/cgroups):
blkio 對塊設備的 IO 進行限制。
cpu 限制 CPU 時間片的分配,與 cpuacct 掛載在同一目錄。
cpuacct 生成 cgroup 中的任務占用 CPU 資源的報告,與 cpu 掛載在同一目錄。
cpuset 給 cgroup 中的任務分配獨立的 CPU(多處理器系統) 和內存節點。
devices 允許或禁止 cgroup 中的任務訪問設備。
freezer 暫停/恢復 cgroup 中的任務。
hugetlb 限制使用的內存頁數量。
memory 對 cgroup 中的任務的可用內存進行限制,并自動生成資源占用報告。
net_cls 使用等級識別符(classid)標記網絡數據包,這讓 Linux 流量控制器(tc 指令)可以識別來自特定 cgroup 任務的數據包,并進行網絡限制。
net_prio 允許基于 cgroup 設置網絡流量(netowork traffic)的優先級。
perf_event 允許使用 perf 工具來監控 cgroup。
pids 限制任務的數量。

Hierarchy(層級) 層級有一系列 cgroup 以一個樹狀結構排列而成,每個層級通過綁定對應的子系統進行資源控制。層級中的 cgroup 節點可以包含零個或多個子節點,子節點繼承父節點掛載的子系統。一個操作系統中可以有多個層級。

cgroups 的文件系統接口

cgroups 以文件的方式提供應用接口,我們可以通過 mount 命令來查看 cgroups 默認的掛載點:

復制代碼 代碼如下:$ mount | grep cgroup

第一行的 tmpfs 說明 /sys/fs/cgroup 目錄下的文件都是存在于內存中的臨時文件。
第二行的掛載點 /sys/fs/cgroup/systemd 用于 systemd 系統對 cgroups 的支持,相關內容筆者今后會做專門的介紹。
其余的掛載點則是內核支持的各個子系統的根級層級結構。

需要注意的是,在使用 systemd 系統的操作系統中,/sys/fs/cgroup 目錄都是由 systemd 在系統啟動的過程中掛載的,并且掛載為只讀的類型。換句話說,系統是不建議我們在 /sys/fs/cgroup 目錄下創建新的目錄并掛載其它子系統的。這一點與之前的操作系統不太一樣。

下面讓我們來探索一下 /sys/fs/cgroup 目錄及其子目錄下都是些什么:

/sys/fs/cgroup 目錄下是各個子系統的根目錄。我們以 memory 子系統為例,看看 memory 目錄下都有什么?

這些文件就是 cgroups 的 memory 子系統中的根級設置。比如 memory.limit_in_bytes 中的數字用來限制進程的最大可用內存,memory.swappiness 中保存著使用 swap 的權重等等。

既然 cgroups 是以這些文件作為 API 的,那么我就可以通過創建或者是修改這些文件的內容來應用 cgroups。具體該怎么做呢?比如我們怎么才能限制某個進程可以使用的資源呢?接下來我們就通過簡單的 demo 來演示如何使用 cgroups 限制進程可以使用的資源。

查看進程所屬的 cgroups

可以通過 /proc/[pid]/cgroup 來查看指定進程屬于哪些 cgroup:

每一行包含用冒號隔開的三列,他們的含義分別是:

cgroup 樹的 ID, 和 /proc/cgroups 文件中的 ID 一一對應。
和 cgroup 樹綁定的所有 subsystem,多個 subsystem 之間用逗號隔開。這里 name=systemd 表示沒有和任何 subsystem 綁定,只是給他起了個名字叫 systemd。
進程在 cgroup 樹中的路徑,即進程所屬的 cgroup,這個路徑是相對于掛載點的相對路徑。

既然 cgroups 是以這些文件作為 API 的,那么我就可以通過創建或者是修改這些文件的內容來應用 cgroups。具體該怎么做呢?比如我們怎么才能限制某個進程可以使用的資源呢?接下來我們就通過簡單的 demo 來演示如何使用 cgroups 限制進程可以使用的資源。

cgroups 工具

在介紹通過 systemd 應用 cgroups 之前,我們先使用 cgroup-bin 工具包中的 cgexec 來演示 demo。Ubuntu 默認沒有安裝 cgroup-bin 工具包,請通過下面的命令安裝:

復制代碼 代碼如下:$ sudo apt install cgroup-bin

demo:限制進程可用的 CPU

在我們使用 cgroups 時,最好不要直接在各個子系統的根目錄下直接修改其配置文件。推薦的方式是為不同的需求在子系統樹中定義不同的節點。比如我們可以在 /sys/fs/cgroup/cpu 目錄下新建一個名稱為 nick_cpu 的目錄:

$ cd /sys/fs/cgroup/cpu
$ sudo mkdir nick_cpu

然后查看新建的目錄下的內容:

是不是有點吃驚,cgroups 的文件系統會在創建文件目錄的時候自動創建這些配置文件!

讓我們通過下面的設置把 CPU 周期限制為總量的十分之一:

$ sudo su$ echo 100000 > nick_cpu/cpu.cfs_period_us
$ echo 10000 > nick_cpu/cpu.cfs_quota_us

上面的兩個參數眼熟嗎?沒錯,筆者在《Docker: 限制容器可用的 CPU》一文中介紹的 –cpu-period=100000 –cpu-quota=200000 就是由它們實現的。

然后創建一個 CPU 密集型的程序:

void main()
{ unsigned int i, end;
 end = 1024 * 1024 * 1024; 
for(i = 0; i < end; 
) { i   ; }}

保存為文件 cputime.c 編譯并通過不同的方式執行:

$ gcc cputime.c -o cputime
$ sudo su$ time ./cputime
$ time cgexec -g cpu:nick_cpu ./cputime

time 命令可以為我們報告程序執行消耗的時間,其中的 real 就是我們真實感受到的時間。使用 cgexec 能夠把我們添加的 cgroup 配置 nick_cpu 應用到運行 cputime 程序的進程上。 上圖顯示,默認的執行只需要 2s 左右。通過 cgroups 限制 CPU 資源后需要運行 23s。

demo:限制進程可用的內存

這次我們來限制進程可用的最大內存,在 /sys/fs/cgroup/memory 下創建目錄nick_memory:

$ cd /sys/fs/cgroup/memory
$ sudo mkdir nick_memory

下面的設置把進程的可用內存限制在最大 300M,并且不使用 swap:

# 物理內存   SWAP <= 300 MB;1024*1024*300 = 314572800$ sudo su$ echo 314572800 > nick_memory/memory.limit_in_bytes$ echo 0 > nick_memory/memory.swappiness

然后創建一個不斷分配內存的程序,它分五次分配內存,每次申請 100M:

#include<stdio.h>#include<stdlib.h>#include<string.h>#define CHUNK_SIZE 1024 * 1024 * 100void main(){ char *p; int i; for(i = 0; i < 5; i   ) { p = malloc(sizeof(char) * CHUNK_SIZE); if(p == NULL) { printf(fail to malloc!); return ; } // memset() 函數用來將指定內存的前 n 個字節設置為特定的值 memset(p, 0, CHUNK_SIZE); printf(malloc memory %d MB\\\\n, (i   1) * 100); }}

把上面的代碼保存為 mem.c 文件,然后編譯:

$ gcc mem.c -o mem

執行生成的 mem 程序:

$ ./mem

此時一切順利,然后加上剛才的約束試試:

$ cgexec -g memory:nick_memory ./mem

由于內存不足且禁止使用 swap,所以被限制資源的進程在申請內存時被強制殺死了。

下面再使用 stress 程序測試一個類似的場景(通過 stress 程序申請 500M 的內存):

$ sudo cgexec -g memory:nick_memory stress --vm 1 --vm-bytes 500000000 --vm-keep --verbose

stress 程序能夠提供比較詳細的信息,進程被殺掉的方式是收到了 SIGKILL(signal 9) 信號。

實際應用中往往要同時限制多種的資源,比如既限制 CPU 資源又限制內存資源。使用 cgexec 實現這樣的用例其實很簡單,直接指定多個 -g 選項就可以了:

$ cgexec -g cpu:nick_cpu -g memory:nick_memory ./cpumem

總結

cgroups 是 linux 內核提供的功能,由于牽涉的概念比較多,所以不太容易理解。本文試圖在介紹概念性內容的同時,用最簡單的 demo 演示 cgroups 的用法。希望直觀的 demo 能夠幫助大家理解 cgroups。

更多關于云服務器域名注冊,虛擬主機的問題,請訪問三五互聯官網:m.shinetop.cn

贊(0)
聲明:本網站發布的內容(圖片、視頻和文字)以原創、轉載和分享網絡內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。郵箱:3140448839@qq.com。本站原創內容未經允許不得轉載,或轉載時需注明出處:三五互聯知識庫 » linux cgroups詳細介紹

登錄

找回密碼

注冊

主站蜘蛛池模板: 安西县| 亚洲国产成人片在线观看无码 | 国产午夜亚洲精品福利| 青青草国产自产一区二区| 欧美乱妇高清无乱码免费| 国产午夜亚洲精品福利| 人妻av中文字幕无码专区| 国产成人AV一区二区三区在线| 亚洲av熟女国产一二三| 精品无码一区二区三区的天堂| 欧美高清一区三区在线专区| 人妻人人做人碰人人添| 99热精品国产三级在线观看| 亚洲精品有码在线观看| 日99久9在线 | 免费| av色国产色拍| 五月丁香综合缴情六月小说| 日韩精品亚洲专区在线观看| 亚洲欧美一区二区成人片 | 丰满爆乳一区二区三区| 综合色一色综合久久网| 苍井空毛片精品久久久| 亚洲av中文乱码一区二| 国产一区二区日韩在线| 精品精品亚洲高清a毛片| 乱人伦人妻中文字幕| 亚洲一区二区三区日本久久| 一区二区三区激情都市| 国产午夜精品在人线播放| 原阳县| 日韩精品卡一卡二卡三卡四| 久久精品国产99久久久古代| 日本高清一区免费中文视频| 亚洲av成人区国产精品| 精品人妻免费看一区二区三区| 人人妻人人澡人人爽曰本| 辽源市| 亚洲小说乱欧美另类| 国产综合色在线精品| 最新国产精品好看的精品| 午夜国产小视频|