一、节点配额和内核参数调整


对于公有云上的 Kubernetes 集群,规模大了之后很容器碰到配额问题,需要提前在云平台上增大配额。这些需要增大的配额包括:

  • 虚拟机个数

  • vCPU 个数

  • 内网 IP 地址个数

  • 公网 IP 地址个数

  • 安全组条数

  • 路由表条数

  • 持久化存储大小

参考gce随着node节点的增加master节点的配置:

  • 1-5 nodes: n1-standard-1

  • 6-10 nodes: n1-standard-2

  • 11-100 nodes: n1-standard-4

  • 101-250 nodes: n1-standard-8

  • 251-500 nodes: n1-standard-16

  • more than 500 nodes: n1-standard-32

参考阿里云配置:

节点规模Master规格
1-5个节点4C8G(不建议2C4G)
6-20个节点4C16G
21-100个节点8C32G
100-200个节点16C64G

增大内核选项配置 /etc/sysctl.conf:

fs.file-max=1000000
# max-file 表示系统级别的能够打开的文件句柄的数量, 一般如果遇到文件句柄达到上限时,会碰到
"Too many open files"或者Socket/File: Can’t open so many files等错误。

# 配置arp cache 大小
net.ipv4.neigh.default.gc_thresh1=1024
# 存在于ARP高速缓存中的最少层数,如果少于这个数,垃圾收集器将不会运行。缺省值是128。

net.ipv4.neigh.default.gc_thresh2=4096
# 保存在 ARP 高速缓存中的最多的记录软限制。垃圾收集器在开始收集前,允许记录数超过这个数字 5 秒。缺省值是 512。

net.ipv4.neigh.default.gc_thresh3=8192
# 保存在 ARP 高速缓存中的最多记录的硬限制,一旦高速缓存中的数目高于此,垃圾收集器将马上运行。缺省值是1024。
以上三个参数,当内核维护的arp表过于庞大时候,可以考虑优化

net.netfilter.nf_conntrack_max=10485760
# 允许的最大跟踪连接条目,是在内核内存中netfilter可以同时处理的“任务”(连接跟踪条目)
net.netfilter.nf_conntrack_tcp_timeout_established=300
net.netfilter.nf_conntrack_buckets=655360
# 哈希表大小(只读)(64位系统、8G内存默认 65536,16G翻倍,如此类推)
net.core.netdev_max_backlog=10000
# 每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。
关于conntrack的详细说明:https://testerhome.com/topics/7509

fs.inotify.max_user_instances=524288
# 默认值: 128 指定了每一个real user ID可创建的inotify instatnces的数量上限

fs.inotify.max_user_watches=524288
# 默认值: 8192 指定了每个inotify instance相关联的watches的上限

二、Etcd 数据库


  • 搭建高可用的etcd集群, 集群规模增大时可以自动增加etcd节点;

    目前的解决方案是使用etcd operator来搭建etcd 集群,operator是CoreOS推出的旨在简化复杂有状态应用管理的框架,它是一个感知应用状态的控制器,通过扩展Kubernetes API来自动创建、管理和配置应用实例。

    etcd operator 有如下特性:

    • ceate/destroy: 自动部署和删除 etcd 集群,不需要人额外干预配置。

    • resize:可以动态实现 etcd 集群的扩缩容。

    • backup:支持etcd集群的数据备份和集群恢复重建

    • upgrade:可以实现在升级etcd集群时不中断服务。

  • 配置etcd使用ssd固态盘存储;

  • 设置 --quota-backend-bytes 增大etcd的存储限制。默认值是 2G;

  • 需要配置单独的 Etcd 集群存储 kube-apiserver 的 event。

三、镜像拉取相关配置


1. Docker 配置
  • 设置 max-concurrent-downloads=10
    配置每个pull操作的最大并行下载数,提高镜像拉取效率,默认值是3。

  • 使用 SSD 存储。

  • 预加载 pause 镜像,比如 docker image save -o /opt/preloaded_docker_images.tar 和docker image load -i /opt/preloaded_docker_images.tar 启动pod时都会拉取pause镜像,为了减小拉取pause镜像网络带宽,可以每个node预加载pause镜像。

2. Kubelet配置
  • 设置 --serialize-image-pulls=false
    该选项配置串行拉取镜像,默认值时true,配置为false可以增加并发度。但是如果docker daemon
    版本小于 1.9,且使用 aufs 存储则不能改动该选项。

  • 设置 --image-pull-progress-deadline=30
    配置镜像拉取超时。默认值时1分,对于大镜像拉取需要适量增大超时时间。

  • Kubelet 单节点允许运行的最大 Pod 数:--max-pods=110(默认是 110,可以根据实际需要设置)。

3. 镜像registry p2p分发

四、Kube APIServer 配置


node节点数量 >= 3000, 推荐设置如下配置:
--max-requests-inflight=3000
--max-mutating-requests-inflight=1000

node节点数量在 1000 -- 3000, 推荐设置如下配置:

--max-requests-inflight=1500
--max-mutating-requests-inflight=500

内存配置选项和node数量的关系,单位是MB:

--target-ram-mb=node_nums * 60

五、Pod 配置


在运行 Pod 的时候也需要注意遵循一些最佳实践,比如:
  • 为容器设置资源请求和限制,尤其是一些基础插件服务
    spec.containers[].resources.limits.cpu
    spec.containers[].resources.limits.memory
    spec.containers[].resources.requests.cpu
    spec.containers[].resources.requests.memory
    spec.containers[].resources.limits.ephemeral-storage
    spec.containers[].resources.requests.ephemeral-storage
    在k8s中,会根据pod不同的limit 和 requests的配置将pod划分为不同的qos类别:
    - Guaranteed
    - Burstable
    - BestEffort
    当机器可用资源不够时,kubelet会根据qos级别划分迁移驱逐pod。被驱逐的优先级:BestEffort > Burstable > Guaranteed

  • 对关键应用使用 nodeAffinity、podAffinity 和 podAntiAffinity 等保护,
    使其调度分散到不同的node上。比如kube-dns 配置:

affinity:
 podAntiAffinity:
   requiredDuringSchedulingIgnoredDuringExecution:
   - weight: 100
     labelSelector:
       matchExpressions:
       - key: k8s-app
         operator: In
         values:
         - kube-dns
     topologyKey: kubernetes.io/hostname
  • 尽量使用控制器来管理容器(如 Deployment、StatefulSet、DaemonSet、Job 等)

Kube-scheduler 配置


  • 设置 --kube-api-qps=100
    默认值是50

Kube-controller-manager 配置


  • 设置 --kube-api-qps=100
    默认值是20

  • 设置 --kube-api-burst=100
    默认值是30

作者:薛海山

链接:https://www.jianshu.com/p/e9fcc1a9eea4

- END -

Kubernetes全栈技术培训

往期精彩文章

kubernetes全栈技术+企业案例演示【带你快速掌握和使用k8s】

突破运维和开发瓶颈、Python、k8s、DevOps转型一网打尽!

python运维开发实战-基础篇

python运维和开发实战-高级篇

python运维和开发实战-安装和创建Django项目

Docker公司禁止被列入美国"实体名单"的国家、企业使用

Jenkis pipeline构建项目实践-编写podTemplate实现和k8s对接

安装kubernetes集群-灵活安装k8s各个版本高可用集群

Kubernetes v1.19 正式发布

高效的Nginx负载均衡器

kubernetes面试题汇总

DevOps视频和资料免费领取

kubernetes技术分享-可用于企业内部培训

谈谈我的IT发展之路

kubernetes系列文章第一篇-k8s基本介绍

kubernetes系列文章第二篇-kubectl

了解pod和pod的生命周期-这一篇文章就够了

Kubernetes中部署MySQL高可用集群

Prometheus+Grafana+Alertmanager搭建全方位的监控告警系统-超详细文档

k8s1.18多master节点高可用集群安装-超详细中文官方文档

k8s中蓝绿部署、金丝雀发布、滚动更新汇总

运维常见问题汇总-tomcat篇

关于linux内核参数的调优,你需要知道

kubernetes挂载ceph rbd和cephfs

报警神器Alertmanager发送报警到多个渠道

jenkins+kubernetes+harbor+gitlab构建企业级devops平台

kubernetes网络插件-flannel篇

kubernetes网络插件-calico篇

kubernetes认证、授权、准入控制

限制不同的用户操作k8s资源

面试真题&技术资料免费领取-覆盖面超全~

Prometheus监控MySQL

Prometheus监控Nginx

Prometheus监控Tomcat

linux面试题汇总

测试通过storageclass动态生成pv

通过编写k8s的资源清单yaml文件部署gitlab服务

helm安装和使用-通过helm部署k8s应用

k8s基于Ingress-nginx实现灰度发布

k8s的Pod安全策略

Prometheus Operator-上篇-安装和使用篇

Prometheus Operator-下篇

通过kubeconfig登陆k8s的dashboard ui界面

通过token令牌登陆k8s dashboard ui界面 

kubernetes集群的etcd数据库详细介绍

Linux网络流量监控工具

kubernetes搭建EFK日志管理系统

prometheus operator监控k8s集群之外的haproxy组件         

kubernetes ConfigMap存储卷                                           

技术交流

学无止境,了解更多关于kubernetes/docker/devops/openstack/openshift/linux/IaaS/PaaS相关内容,想要获取更多资料和免费视频,可按如下方式进入技术交流群

微信:luckylucky421302

按如下指纹可关注


Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐