-
1.介绍Ingress简单的说,ingress就是从kubernetes集群外访问集群的入口,将用户的URL请求转发到不同的service上。Ingress相当于nginx、apache等负载均衡方向代理服务器,其中还包括规则定义,即URL的路由信息,路由信息得的刷新由Ingress controller来提供。理解Ingress ControllerIngress Controller 实质上可以理解为是个监视器,Ingress Controller 通过不断地跟 kubernetes API
-
1.部署Helm客户端[root@master01 ~]# wget https://storage.googleapis.com/kubernetes-helm/helm-v2.9.1-linux-amd64.tar.gz
[root@master01 ~]# tar zxf helm-v2.9.1-linux-amd64.tar.gz
[root@master01 ~]# mv linux-amd64/helm /usr/local/bin/
2.初始化Helm并部署Tiller服务端[ro
-
部署监控组件[root@master01 ~]# wget https://zhl123.com/download/k8s/heapster.tgz[root@master01 ~]# tar xf heapster.tgz[root@master01 ~]# kubectl create -f heapster[root@master01 ~]# kubectl cluster-infoKubernetes master is running at https://10.80.4.2
-
系统环境CentOS Linux release 7.5.1804 (Core)Docker 18.06.1-ce软件包准备:docker-compose二进制最新包下载地址:https://github.com/docker/compose/releases[root@harbor ~]# wget https://github.com/docker/compose/releases/download/1.23.0-rc3/docker-compose-Linux-x86_64Ha
-
创建Dashboard需要CoreDNS部署成功之后再安装Dashboard。[root@master01 ~]# wget https://zhl123.com/download/k8s/Dashboard.tgz[root@master01 ~]# tar xf Dashboard.tgz[root@master01 ~]# kubectl create -f Dashboard/[root@master01 Dashboard]# kubectl get svc -n kube-syste
-
创建CoreDNS[root@master01 ~]# wget https://zhl123.com/download/k8s/scripts/CoreDNS/coredns.yaml[root@master01 ~]# kubectl create -f ./coredns.yaml[root@master01 ~]# kubectl get pod -n kube-system
NAME READY STATUS
-
1.为Flannel生成证书[root@master01 ssl]# vim flanneld-csr.json
{
"CN": "flanneld",
"hosts": [],
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "ShenZheng",
"L": "ShenZheng",
"O": "k8s",
-
1.二进制包准备 将软件包从master01复制到各node节点中去。[root@master01 ~]# scp kubernetes/server/bin/{kubelet,kube-proxy} node01:/opt/kubernetes/bin/[root@master01 ~]# scp kubernetes/server/bin/{kubelet,kube-proxy} node02:/opt/kubernetes/bin/[root@master01 ~]# scp kubern
-
0.准备软件包[root@master01 ~]# cp kubernetes/server/bin/kube-apiserver /opt/kubernetes/bin/
[root@master01 ~]# cp kubernetes/server/bin/kube-controller-manager /opt/kubernetes/bin/
[root@master01 ~]# cp kubernetes/server/bin/kube-scheduler /opt/kubernetes
-
手动部署ETCD集群0.分发etcd软件包[root@master01 ~]# tar xf etcd-v3.2.25-linux-amd64.tar.gz [root@master01 ~]# cd etcd-v3.2.25-linux-amd64[root@master01 etcd-v3.2.25-linux-amd64]# scp etcd etcdctl node01:/opt/kubernetes/bin/[root@master01 etcd-v3.2.25-linux-
-
手动制作CA证书1.安装 CFSSL[root@master01 ~]# chmod +x cfssl*[root@master01 ~]# mv cfssl-certinfo_linux-amd64 /opt/kubernetes/bin/cfssl-certinfo[root@master01 ~]# mv cfssljson_linux-amd64 /opt/kubernetes/bin/cfssljson[root@master01 ~]# mv cfssl_linux-amd64
-
KeepAlived 是一个高可用方案,通过 VIP(即虚拟 IP)和心跳检测来实现高可用。其原理是存在一组(两台)服务器,分别赋予 Master、Backup 两个角色,默认情况下Master 会绑定VIP 到自己的网卡上,对外提供服务。Master、Backup 会在一定的时间间隔向对方发送心跳数据包来检测对方的状态,这个时间间隔一般为 2 秒钟,如果Backup 发现Master 宕机,那么Backup 会发送ARP 包到网关,把VIP 绑定到自己的网卡,此时Backup 对外提
-
1、环境说明使用的Kubernetes集群可由一个master主机及一个以上(建议至少两个)node主机组成,这些主机可以是物理服务器,也可以运行于vmware、virtualbox或kvm等虚拟化平台上的虚拟机,甚至是公有云上的VPS主机。本测试环境将由master01、master02、node01、node02、node03和harbor六个独立的主机组成,它们分别拥有2核心的CPU及4G的内存资源,操作系统环境均为CentOS 7.5 1804。此外,需要预设的系统环境如下:(1)借助于
-
1、查看docker和文件系统Docker的镜像以及一些数据都是在/var/lib/docker目录下,它占用的是Linux的系统分区,也就是下面的/dev/vda1,当有多个镜像时,/dev/vda1的空间可能不足,我们可以把docker的数据挂载到数据盘,例如:/dev/vdb目录下。[root@10-10-63-106 docker]# df -lhT
Filesystem Type &nbs
-
# cat DockerfileFROM openjdk:8-alpineWORKDIR /ADD ./target/*.jar app.jarEXPOSE 9999COPY docker-entrypoint.sh /RUN chmod +x /docker-entrypoint.shENTRYPOINT [“/docker-entrypoint.sh”]CMD [“java”,”-server”,”-Duser.timezone=GMT+08″,”-jar”,”/app.jar”]# cat