1.0etcd数据库备份与恢复
1.1安装工具
yum -y install etcd
1.2备份
ETCDCTL_API=3 etcdctl \ #指定3版本
snapshot save snap.db \ #备份命令
--endpoints=https://127.0.0.1:2379 \ # #指定ip+端口
--cacert=/etc/kubernetes/pki/etcd/ca.crt \ #指定https证书
-cert=/etc/kubernetes/pki/etcd/server.crt \ #指定数字证书
--key=/etc/kubernetes/pki/etcd/server.key #指定key
ETCDCTL_API=3 etcdctl snapshot save snap.db --endpoints=https://127.0.0.1:2379 --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/seey=/etc/kubernetes/pki/etcd/server.key
说明备份成功
1.3恢复数据.模拟删除数据
mv /var/lib/etcd/ /var/lib/etc.bak
mv /etc/kubernetes/manifests/ /etc/kubernetes/manifests.bak
1.31开始恢复数据
ETCDCTL_API=3 etcdctl snapshot restore snap.db --data-dir=/var/lib/etcd
mv /etc/kubernetes/manifests.bak/ /etc/kubernetes/manifests
发现刚才备份后的删除的pod数据已经恢复成功了
###二进制恢复方法如下
2.0k8s版本升级
升级策略:
• 始终保持最新
• 每半年升级一次,这样会落后社区1~2个小版本
• 一年升级一次,或者更长,落后版本太多
2.1 查看版本
yum list --showduplicates kubeadm --disableexcludes=kubernetes
2.2驱逐master
kubectl drain k8s-master --ignore-daemonsets
2.3 检查可升级的版本
kubeadm upgrade plan #检查可升级的版本
kubeadm upgrade apply v1.19.3。#升级
2.4 启用master
kubectl uncordon k8s-master
2.5 升级 kubelet和kubectl
yum install -y kubelet-1.19.3-0 kubectl-1.19.3-0 --disableexcludes=kubernetes
systemctl daemon-reload
systemctl restart kubelet
升级k8s-master完成
2.6 升级node 节点
2.61
yum -y install kubeadm-1.19.3-0 --disableexcludes=kubernetes。 #升级kubeadm
2.62
kubectl drain k8s-node1 --ignore-daemonsets. #驱逐
2.63
kubeadm upgrade node. #升级 kubelet 配置
2.64
yum install -y kubelet-1.19.3-0 kubectl-1.19.3-0 --disableexcludes=kubernetes
2.65重启kubelet
systemctl daemon-reload
systemctl restart kubelet
2.66取消不可调度,节点重新上线
kubectl uncordon k8s-node1
3.0下线流程
1、获取节点列表
kubectl get node
2、设置不可调度
kubectl cordon <node_name>
3、驱逐节点上的Pod
kubectl drain <node_name> --ignore-daemonsets
4、移除节点
kubectl delete node <node_name>