helm搭建K8S系列三:Helm部署详细教程(含代码)

前言

也许在未来,应用研发人员只需要关注应用研发即可,底层的Docker、K8S技术并不需要应用研发人员去掌握,底层IT与研发平台将是完全隔离的。

比如我所知道的,新型的云原生研发工具StarOS,完全隔离底层IT,编程环境信手拈来,资源也无需申请,全SAAS化。

目前是迭代阶段,纯免费,有需要的朋友们,可以去体验一下。

也许未来的招聘要求,是研发人员需要掌握新型研发工具的使用。

 

接上一篇,继续来看Helm搭建K8S的详细教程。

helm搭建K8S步骤三、给 Tiller 授权

因为 Helm 的服务端 Tiller 是一个部署在 Kubernetes 中 Kube-System Namespace 下 的 Deployment,它会去连接 Kube-Api 在 Kubernetes 里创建和删除应用。

而从 Kubernetes 1.6 版本开始,API Server 启用了 RBAC 授权。目前的 Tiller 部署时默认没有定义授权的 ServiceAccount,这会导致访问 API Server 时被拒绝。所以我们需要明确为 Tiller 部署添加授权。

创建 Kubernetes 的服务帐号和绑定角色

$ kubectl create serviceaccount --namespace kube-system tiller

$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller

为 Tiller 设置帐号

# 使用 kubectl patch 更新 API 对象

$ kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

deployment.extensions "tiller-deploy" patched

查看是否授权成功

$ kubectl get deploy --namespace kube-system   tiller-deploy  --output yaml|grep  serviceAccount

serviceAccount: tiller

serviceAccountName: tiller

helm搭建K8S步骤四、验证 Tiller 是否安装成功

$ kubectl -n kube-system get pods|grep tiller

tiller-deploy-6d68f5c78f-nql2z          1/1       Running   0          5m

$ helm version

Client: &version.Version{SemVer:"v2.9.1", GitCommit:"20adb27c7c5868466912eebdf6664e7390ebe710", GitTreeState:"clean"}

Server: &version.Version{SemVer:"v2.9.1", GitCommit:"20adb27c7c5868466912eebdf6664e7390ebe710", GitTreeState:"clean"}

helm搭建K8S步骤五、卸载 Helm 服务器端 Tiller

如果你需要在 Kubernetes 中卸载已部署的 Tiller,可使用以下命令完成卸载。

$ helm reset 或

$helm reset --force

helm搭建K8S步骤六、Helm 使用

1)更换仓库:

若遇到Unable to get an update from the “stable” chart repository (https://kubernetes-charts.storage.googleapis.com) 错误

手动更换stable 存储库为阿里云的存储库

# 先移除原先的仓库

helm repo remove stable

# 添加新的仓库地址

helm repo add stable https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts

# 更新仓库

helm repo update

2)查看在存储库中可用的所有 Helm charts:

helm search

NAME                            CHART VERSION   APP VERSION     DESCRIPTION                                       

stable/acs-engine-autoscaler    2.1.3           2.1.1           Scales worker nodes within agent pools            

stable/aerospike                0.1.7           v3.14.1.2       A Helm chart for Aerospike in Kubernetes          

stable/anchore-engine           0.1.3           0.1.6           Anchore container analysis and policy evaluatio...

stable/artifactory              7.0.3           5.8.4           Universal Repository Manager supporting all maj...

stable/artifactory-ha           0.1.0           5.8.4           Universal Repository Manager supporting all maj...

stable/aws-cluster-autoscaler   0.3.2                           Scales worker nodes within autoscaling groups.

... ...

3)更新charts列表:

helm repo update

4)安装charts:

Monocular是一个开源软件,用于管理kubernetes上以Helm Charts形式创建的服务,可以通过它的web页面来安装helm Charts

安装Nginx Ingress controller,安装的k8s集群启用了RBAC,则一定要加rbac.create=true参数

helm install stable/nginx-ingress --set controller.hostNetwork=true,rbac.create=true

安装Monocular:

# 添加新的源

helm repo add monocular https://kubernetes-helm.github.io/monocular

# 安装

helm install monocular/monocular -f custom-repos.yaml

# custom-repos.yaml 内容

cat custom-repos.yaml

api:

  config:

    repos:

      - name: stable

        url: https://aliacs-app-catalog.oss-cn-hangzhou.aliyuncs.com/charts

        source: https://github.com/kubernetes/charts/tree/master/stable

      - name: incubator

        url: https://aliacs-app-catalog.oss-cn-hangzhou.aliyuncs.com/charts-incubator

        source: https://github.com/kubernetes/charts/tree/master/incubator

      - name: monocular

        url: https://kubernetes-helm.github.io/monocular

        source: https://github.com/kubernetes-helm/monocular/tree/master/charts

5)查看K8S中已安装的charts:

helm list

NAME                REVISION    UPDATED                     STATUS      CHART               NAMESPACE

amber-seal          1           Mon Jul  2 17:29:25 2018    DEPLOYED    nginx-ingress-0.9.5 default  

my-release          1           Mon Jul  2 15:19:44 2018    DEPLOYED    spark-0.1.10        default  

nonplussed-panther  1           Mon Jul  2 17:27:41 2018    FAILED      nginx-ingress-0.9.5 default  

turbulent-tuatara   1           Mon Jul  2 17:31:33 2018    DEPLOYED    monocular-0.6.2     default

6)删除安装的charts:

# 删除:helm delete xxx

helm delete amber-seal

Helm Chart 结构

Chart 目录结构

examples/

  Chart.yaml          # Yaml文件,用于描述Chart的基本信息,包括名称版本等

  LICENSE             # [可选] 协议

  README.md           # [可选] 当前Chart的介绍

  values.yaml         # Chart的默认配置文件

  requirements.yaml   # [可选] 用于存放当前Chart依赖的其它Chart的说明文件

  charts/             # [可选]: 该目录中放置当前Chart依赖的其它Chart

  templates/          # [可选]: 部署文件模版目录,模版使用的值来自values.yaml和由Tiller提供的值

  templates/NOTES.txt # [可选]: 放置Chart的使用指南

Chart.yaml 文件

name: [必须] Chart的名称

version: [必须] Chart的版本号,版本号必须符合 SemVer 2:http://semver.org/

description: [可选] Chart的简要描述

keywords:

  -  [可选] 关键字列表

home: [可选] 项目地址

sources:

  - [可选] 当前Chart的下载地址列表

maintainers: # [可选]

  - name: [必须] 名字

    email: [可选] 邮箱

engine: gotpl # [可选] 模版引擎,默认值是gotpl

icon: [可选] 一个SVG或PNG格式的图片地址

requirements.yaml 和 charts目录

requirements.yaml 文件内容:

dependencies:

  - name: example

    version: 1.2.3

    repository: http://example.com/charts

  - name: Chart名称

    version: Chart版本

    repository: 该Chart所在的仓库地址

Chart支持两种方式表示依赖关系,可以使用requirements.yaml或者直接将依赖的Chart放置到charts目录中。

templates 目录

templates目录中存放了Kubernetes部署文件的模版。

例如:

# db.yaml

apiVersion: v1

kind: ReplicationController

metadata:

  name: deis-database

  namespace: deis

  labels:

    heritage: deis

spec:

  replicas: 1

  selector:

    app: deis-database

  template:

    metadata:

      labels:

        app: deis-database

    spec:

      serviceAccount: deis-database

      containers:

        - name: deis-database

          image: {{.Values.imageRegistry}}/postgres:{{.Values.dockerTag}}

          imagePullPolicy: {{.Values.pullPolicy}}

          ports:

            - containerPort: 5432

          env:

            - name: DATABASE_STORAGE

              value: {{default "minio" .Values.storage}}

模版语法扩展了 golang/text/template的语法:

# 这种方式定义的模版,会去除test模版尾部所有的空行

{{- define "test"}}

模版内容

{{- end}}

# 去除test模版头部的第一个空行

{{- template "test" }}

用于yaml文件前置空格的语法:

# 这种方式定义的模版,会去除test模版头部和尾部所有的空行

{{- define "test" -}}

模版内容

{{- end -}}

# 可以在test模版每一行的头部增加4个空格,用于yaml文件的对齐

{{ include "test" | indent 4}}

创建自己的chart

我们创建一个名为mongodb的chart,看一看chart的文件结构。

$ helm create mongodb

$ tree mongodb

mongodb

├── Chart.yaml #Chart本身的版本和配置信息

├── charts #依赖的chart

├── templates #配置模板目录

│   ├── NOTES.txt #helm提示信息

│   ├── _helpers.tpl #用于修改kubernetes objcet配置的模板

│   ├── deployment.yaml #kubernetes Deployment object

│   └── service.yaml #kubernetes Serivce

└── values.yaml #kubernetes object configuration

2 directories, 6 files

模板

Templates目录下是yaml文件的模板,遵循Go template语法。使用过Hugo的静态网站生成工具的人应该对此很熟悉。

我们查看下deployment.yaml文件的内容。

apiVersion: extensions/v1beta1

kind: Deployment

metadata:

  name: {{ template "fullname" . }}

  labels:

    chart: "{{ .Chart.Name }}-{{ .Chart.Version | replace "+" "_" }}"

spec:

  replicas: {{ .Values.replicaCount }}

  template:

    metadata:

      labels:

        app: {{ template "fullname" . }}

    spec:

      containers:

      - name: {{ .Chart.Name }}

        image: "{{ .Values.image.repository }}:{{ .Values.image.tag }}"

        imagePullPolicy: {{ .Values.image.pullPolicy }}

        ports:

        - containerPort: {{ .Values.service.internalPort }}

        livenessProbe:

          httpGet:

            path: /

            port: {{ .Values.service.internalPort }}

        readinessProbe:

          httpGet:

            path: /

            port: {{ .Values.service.internalPort }}

        resources:

{{ toyaml .Values.resources | indent 12 }}

这是该应用的Deployment的yaml配置文件,其中的双大括号包扩起来的部分是Go template,其中的Values是在values.yaml文件中定义的:

# Default values for mychart.

# This is a yaml-formatted file.

# Declare variables to be passed into your templates.

replicaCount: 1

image:

  repository: nginx

  tag: stable

  pullPolicy: IfNotPresent

service:

  name: nginx

  type: ClusterIP

  externalPort: 80

  internalPort: 80

resources:

  limits:

    cpu: 100m

    memory: 128Mi

  requests:

    cpu: 100m

    memory: 128Mi

比如在Deployment.yaml中定义的容器镜像image: "{{ .Values.image.repository }}:{{ .Values.image.tag }}"其中的:

.Values.image.repository就是nginx

.Values.image.tag就是stable

以上两个变量值是在create chart的时候自动生成的默认值。

我们将默认的镜像地址和tag改成我们自己的镜像harbor-001.jimmysong.io/library/nginx:1.9。

检查配置和模板是否有效

当使用kubernetes部署应用的时候实际上讲templates渲染成最终的kubernetes能够识别的yaml格式。

使用helm install --dry-run --debug <chart_dir>命令来验证chart配置。该输出中包含了模板的变量配置与最终渲染的yaml文件。

$ helm install --dry-run --debug mychart

Created tunnel using local port: '58406'

SERVER: "localhost:58406"

CHART PATH: /Users/jimmy/Workspace/github/bitnami/charts/incubator/mean/charts/mychart

NAME:   filled-seahorse

REVISION: 1

RELEASED: Tue Oct 24 18:57:13 2017

CHART: mychart-0.1.0

USER-SUPPLIED VALUES:

{}

COMPUTED VALUES:

image:

  pullPolicy: IfNotPresent

  repository: harbor-001.jimmysong.io/library/nginx

  tag: 1.9

replicaCount: 1

resources:

  limits:

    cpu: 100m

    memory: 128Mi

  requests:

    cpu: 100m

    memory: 128Mi

service:

  externalPort: 80

  internalPort: 80

  name: nginx

  type: ClusterIP

HOOKS:

MANIFEST:

---

# Source: mychart/templates/service.yaml

apiVersion: v1

kind: Service

metadata:

  name: filled-seahorse-mychart

  labels:

    chart: "mychart-0.1.0"

spec:

  type: ClusterIP

  ports:

  - port: 80

    targetPort: 80

    protocol: TCP

    name: nginx

  selector:

    app: filled-seahorse-mychart

---

# Source: mychart/templates/deployment.yaml

apiVersion: extensions/v1beta1

kind: Deployment

metadata:

  name: filled-seahorse-mychart

  labels:

    chart: "mychart-0.1.0"

spec:

  replicas: 1

  template:

    metadata:

      labels:

        app: filled-seahorse-mychart

    spec:

      containers:

      - name: mychart

        image: "harbor-001.jimmysong.io/library/nginx:1.9"

        imagePullPolicy: IfNotPresent

        ports:

        - containerPort: 80

        livenessProbe:

          httpGet:

            path: /

            port: 80

        readinessProbe:

          httpGet:

            path: /

            port: 80

        resources:

            limits:

              cpu: 100m

              memory: 128Mi

            requests:

              cpu: 100m

              memory: 128Mi

我们可以看到Deployment和Service的名字前半截由两个随机的单词组成,最后才是我们在values.yaml中配置的值。

教程未完,请查看下一篇文章~~

纯干货文章教程,记得收藏,以免后期找不到>>

 

结束

随着开发工具的不断发展,未来的研发平台、IT平台一定会像云计算一样,使得研发环境、资源像自来水一样取用便利,所有工具集成在一体,这些底层的Docker、K8S技术并不需要应用研发人员去掌握,底层IT与研发平台将是完全隔离的。

别说小编没告诉你,现在就有这样的平台。

为大家推荐一款新型的云原生研发工具StarOS:包含云原生应用架构设计、在线协同编码开发、基于云原生的API管理和接口测试、多云交付和应用调度、灰度发布、流水线、应用运维、服务治理、多容器集群管理、云边一体化业务交付等能力。目标是提升应用架构敏捷度,大大加快软件开发迭代速度,提高IT资源的弹性和利用率——StarOS,纯免费SAAS应用产品。

新兴云原生开发工具,新兴的研发场景,快去体验别落伍啦……

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值