2.1 安裝kube-proxy二進制文件
### 1.Check if the install directory exists.
if [ ! -d $K8S_BIN_PATH ]; then
mkdir -p $K8S_BIN_PATH
fi
if [ ! -d $K8S_LOG_DIR/$KUBE_NAME ]; then
mkdir -p $K8S_LOG_DIR/$KUBE_NAME
fi
if [ ! -d $K8S_CONF_PATH ]; then
mkdir -p $K8S_CONF_PATH
fi
if [ ! -d $KUBE_CONFIG_PATH ]; then
mkdir -p $KUBE_CONFIG_PATH
fi
### 2.Install kube-proxy binary of kubernetes.
if [ ! -f $SOFTWARE/kubernetes-server-${VERSION}-linux-amd64.tar.gz ]; then
wget $DOWNLOAD_URL -P $SOFTWARE >>/tmp/install.log 2>&1
fi
cd $SOFTWARE && tar -xzf kubernetes-server-${VERSION}-linux-amd64.tar.gz -C ./
cp -fp kubernetes/server/bin/$KUBE_NAME $K8S_BIN_PATH
ln -sf $K8S_BIN_PATH/${KUBE_NAME} /usr/local/bin
chmod -R 755 $K8S_INSTALL_PATH
2.2 分發kubeconfig文件和證書文件
分發CA根證書
cd $CA_DIR
ansible worker_k8s_vgs -m copy -a src=ca.pem dest=$CA_DIR -b
分發kubeconfig認證文件
kube-proxy使用 kubeconfig文件連接訪問 apiserver服務,該文件提供了 apiserver 地址、嵌入的 CA 證書和 kube-proxy服務器證書以及私鑰:
cd $KUBE_CONFIG_PATH
ansible worker_k8s_vgs -m copy -a src= kube-proxy.kubeconfig dest=$KUBE_CONFIG_PATH -b
備注: 如果在前面小節已經同步過各組件kubeconfig和證書文件,此處可以不必執行此操作;
2.3 創建kube-proxy配置文件
cat >${K8S_CONF_PATH}/kube-proxy-config.yaml<<EOF
kind: KubeProxyConfiguration
apiVersion: kubeproxy.config.k8s.io/v1alpha1
clientConnection:
burst: 200
kubeconfig: ${KUBE_CONFIG_PATH}/kube-proxy.kubeconfig
qps: 100
bindAddress: ${LISTEN_IP}
healthzBindAddress: ${LISTEN_IP}:10256
metricsBindAddress: ${LISTEN_IP}:10249
clusterCIDR: ${CLUSTER_PODS_CIDR}
hostnameOverride: ${HOSTNAME}
mode: ipvs
portRange:
kubeProxyIPTablesConfiguration:
masqueradeAll: false
kubeProxyIPVSConfiguration:
scheduler: rr
excludeCIDRs: []
EOF
bindAddress: 監聽地址;
clientConnection.kubeconfig: 連接 apiserver 的 kubeconfig 文件;
clusterCIDR: kube-proxy 根據 –cluster-cidr 判斷集群內部和外部流量,指定 –cluster-cidr 或 –masquerade-all 選項后 kube-proxy 才會對訪問 Service IP 的請求做 SNAT;
hostnameOverride: 參數值必須與 kubelet 的值一致,否則 kube-proxy 啟動后會找不到該 Node,從而不會創建任何 ipvs 規則;
mode: 使用 ipvs 模式;
2.4 創建kube-proxy 啟動服務
cat >/usr/lib/systemd/system/${KUBE_NAME}.service <<EOF
[Unit]
Description=Kubernetes Kube-Proxy Server
Documentation=https://github.com/GoogleCloudPlatform/kubernetes
After=network.target
[Service]
WorkingDirectory=${K8S_INSTALL_PATH}
ExecStart=${K8S_BIN_PATH}/${KUBE_NAME} \\\\\\\\
--config=${K8S_CONF_PATH}/kube-proxy-config.yaml \\\\\\\\
--alsologtostderr=true \\\\\\\\
--logtostderr=false \\\\\\\\
--log-dir=${K8S_LOG_DIR}/${KUBE_NAME} \\\\\\\\
--v=2
Restart=on-failure
RestartSec=5
LimitNOFILE=65536
[Install]
WantedBy=multi-user.target
EOF
2.5 檢查服務運行狀態
systemctl status kube-proxy|grep Active
確保狀態為 active (running),否則查看日志,確認原因:
sudo journalctl -u kube-proxy
2.6 查看輸出的 metrics
注意:以下命令在 kube-scheduler 節點上執行。kube-proxy 監聽 10249 和 10256 端口:兩個接口都對外提供 /metrics 和 /healthz 的訪問。
sudo netstat -ntlp | grep kube-proxy
tcp 0 0 10.10.10.40:10249 0.0.0.0:* LISTEN 22604/kube-proxy
tcp 0 0 10.10.10.40:10256 0.0.0.0:* LISTEN 22604/kube-proxy
2.7 查看查看 ipvs 路由規則
sudo ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.20.40:8400 rr
-> 172.16.3.2:8080 Masq 1 0 0
-> 172.16.3.3:8080 Masq 1 0 0
-> 172.16.3.4:8080 Masq 1 0 0
TCP 192.168.20.40:8497 rr
-> 172.16.3.2:8500 Masq 1 0 0
-> 172.16.3.3:8500 Masq 1 0 0
-> 172.16.3.4:8500 Masq 1 0 0
TCP 10.10.10.40:8400 rr
-> 172.16.3.2:8080 Masq 1 0 0
-> 172.16.3.3:8080 Masq 1 0 0
-> 172.16.3.4:8080 Masq 1 0 0
至此整個集群基本部署完成,關于kubernetes集群監控請參考:kubernetes集群安裝指南:kubernetes集群插件部署。kube-proxy腳本可以從此處獲取,
更多關于云服務器,域名注冊,虛擬主機的問題,請訪問三五互聯官網:m.shinetop.cn