从0到1实现cicd流程-devops


[TOC]

我做了这样一件事情:如图

第一阶段:先完成这一项工作:

这里需要两台2核4G服务器,如果你不用docker pull gitlab的话,可以https://gitlab.com/nateshao 或者gitee上面的项目,因为gitlab安装下来都要3g多内存了

DevOps

一、DevOps介绍

软件开发最开始是由两个团队组成:

  • 开发计划由开发团队从头开始设计和整体系统的构建。需要系统不停的迭代更新。
  • 运维团队将开发团队的Code进行测试后部署上线。希望系统稳定安全运行。

这看似两个目标不同的团队需要协同完成一个软件的开发。

在开发团队指定好计划并完成coding后,需要提供到运维团队。

运维团队向开发团队反馈需要修复的BUG以及一些需要返工的任务。

这时开发团队需要经常等待运维团队的反馈。这无疑延长了事件并推迟了整个软件开发的周期。

会有一种方式,在开发团队等待的时候,让开发团队转移到下一个项目中。等待运维团队为之前的代码提供反馈。可是这样就意味着一个完整的项目需要一个更长的周期才可以开发出最终代码。


基于现在的互联网现状,更推崇敏捷式开发,这样就导致项目的迭代速度更快,但是由于开发团队与运维团队的沟通问题,会导致新版本上线的时间成本很高。这又违背的敏捷式开发的最初的目的。

那么如果让开发团队和运维团队整合到成一个团队,协同应对一套软件呢?这就被称为DevOps

DevOps,字面意思是Development &Operations的缩写,也就是开发&运维。虽然字面意思只涉及到了开发团队和运维团队,其实QA测试团队也是参与其中的。网上可以查看到 DevOps 的符号类似于一个无穷大的符号

DevOps

这表明DevOps是一个不断提高效率并且持续不断工作的过程。DevOps的方式可以让公司能够更快地应对更新和市场发展变化,开发可以快速交付,部署也更加稳定。核心就在于简化Dev和Ops团队之间的流程,使整体软件开发过程更快速。

整体的软件开发流程包括:

  • PLAN:开发团队根据客户的目标制定开发计划
  • CODE:根据PLAN开始编码过程,需要将不同版本(Git / Gvn)的代码存储在一个库中。
  • BUILD:编码完成后,需要将代码构建并且运行。
  • TEST:成功构建项目后,需要测试代码是否存在BUG或错误。
  • DEPLOY:代码经过手动测试和自动化测试后,认定代码已经准备好部署并且交给运维团队。
  • OPERATE:运维团队将代码部署到生产环境中。
  • MONITOR:项目部署上线后,需要持续的监控产品。
  • INTEGRATE:然后将监控阶段收到的反馈发送回PLAN阶段,整体反复的流程就是DevOps的核心,即持续集成、持续部署。

为了保证整体流程可以高效的完成,各个阶段都有比较常见的工具,如下图:

软件开发过程&涉及工具

最终可以给DevOps下一个定义:DevOps 强调的是高效组织团队之间如何通过自动化的工具协作和沟通来完成软件的生命周期管理,从而更快、更频繁地交付更稳定的软件。 自动化的工具协作和沟通来完成软件的生命周期管理

二、Code阶段工具

先完成一件简单的事情

codeding阶段,我们需要将不同版本的代码存储到一个仓库中,常见的版本控制工具就是SVN或者Git,这里我们采用Git作为版本控制工具,GitLab作为远程仓库。

2.1 Git安装

Git官网:https://git-scm.com(傻瓜式安装就可)

2.2 安装docker

  1. Docker 要求 CentOS 系统的内核版本高于 3.10 ,查看本页面的前提条件来验证你的CentOS 版本是否支持 Docker ,通过 uname -r 命令查看你当前的内核版本:

    uname -r
  2. 使用 root 权限登录 Centos。确保 yum 包更新到最新。

    sudo yum update
  3. 卸载旧版本(如果安装过旧版本的话)

    sudo yum remove docker  docker-common docker-selinux docker-engine
  4. 安装需要的软件包, yum-util 提供yum-config-manager功能,另外两个是devicemapper驱动依赖的

    sudo yum install -y yum-utils device-mapper-persistent-data lvm2
  5. 设置yum源

    sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
  6. 可以查看所有仓库中所有docker版本,并选择特定版本安装

    yum list docker-ce --showduplicates | sort -r
  7. 安装docker

    sudo yum install docker-ce  //由于repo中默认只开启stable仓库,故这里安装的是最新稳定版
  8. 启动并加入开机启动

    sudo systemctl start docker
    sudo systemctl enable docker
  9. 验证安装是否成功(有client和service两部分表示docker安装启动都成功了

    docker version
    [root@iZwz98qdx9tvkknmzwtbl9Z system]# docker version
    Client: Docker Engine - Community
     Version:           20.10.14
     API version:       1.41
     Go version:        go1.16.15
     Git commit:        a224086
     Built:             Thu Mar 24 01:49:57 2022
     OS/Arch:           linux/amd64
     Context:           default
     Experimental:      true
    
    Server: Docker Engine - Community
     Engine:
      Version:          20.10.14
      API version:      1.41 (minimum version 1.12)
      Go version:       go1.16.15
      Git commit:       87a90dc
      Built:            Thu Mar 24 01:48:24 2022
      OS/Arch:          linux/amd64
      Experimental:     false
     containerd:
      Version:          1.5.11
      GitCommit:        3df54a852345ae127d1fa3092b95168e4a88e2f8
     runc:
      Version:          1.0.3
      GitCommit:        v1.0.3-0-gf46b6ba
     docker-init:
      Version:          0.19.0
      GitCommit:        de40ad0
    [root@iZwz98qdx9tvkknmzwtbl9Z system]# docker-compose version
    docker-compose version 1.29.1, build c34c88b2
    docker-py version: 5.0.0
    CPython version: 3.7.10
    OpenSSL version: OpenSSL 1.1.0l  10 Sep 2019

到此安装成功


有docker,但没安装docker-compose情况下:安装docker-compose

1、下载

# 这个是官方地址,可能比较慢,推荐使用下面的国内镜像地址
sudo curl -L "https://github.com/docker/compose/releases/download/1.29.1/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

# 国内镜像地址
curl -L https://get.daocloud.io/docker/compose/releases/download/1.29.1/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose

# 下载完之后可以看下 /usr/local/bin 这个目录有没有 docker-compose 这个文件

2、授权

# 给docker compose 目录授权
sudo chmod +x /usr/local/bin/docker-compose

# 查看一下version,显示有版本号那就说明安装成功了
docker-compose version

演示

[root@iZwz98qdx9tvkknmzwtbl9Z ~]# curl -L https://get.daocloud.io/docker/compose/releases/download/1.29.1/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100   423  100   423    0     0    453      0 --:--:-- --:--:-- --:--:--   453
100 12.1M  100 12.1M    0     0  9404k      0  0:00:01  0:00:01 --:--:-- 9404k
[root@iZwz98qdx9tvkknmzwtbl9Z ~]# cd /usr/local/bin
[root@iZwz98qdx9tvkknmzwtbl9Z bin]# ll
total 12764
-rwxr-xr-x 1 root root      975 Sep 22  2021 cloud-id
-rwxr-xr-x 1 root root      979 Sep 22  2021 cloud-init
-rwxr-xr-x 1 root root     2108 Sep 22  2021 cloud-init-per
-rw-r--r-- 1 root root 12728384 Apr 21 10:19 docker-compose
-rwxr-xr-x 1 root root     1003 Sep 22  2021 jsondiff
-rwxr-xr-x 1 root root     3858 Sep 22  2021 jsonpatch
-rwxr-xr-x 1 root root     1837 Sep 22  2021 jsonpointer
-rwxr-xr-x 1 root root      973 Sep 22  2021 jsonschema
-rwxr-xr-x 1 root root      997 Sep 22  2021 normalizer
-rwxr-xr-x 1 root root     2363 Nov  8 12:40 pcre-config
-rwxr-xr-x 1 root root   100048 Nov  8 12:40 pcregrep
-rwxr-xr-x 1 root root   197512 Nov  8 12:40 pcretest
[root@iZwz98qdx9tvkknmzwtbl9Z bin]# sudo chmod +x /usr/local/bin/docker-compose
[root@iZwz98qdx9tvkknmzwtbl9Z bin]# docker-compose version
docker-compose version 1.29.1, build c34c88b2
docker-py version: 5.0.0
CPython version: 3.7.10
OpenSSL version: OpenSSL 1.1.0l  10 Sep 2019

关闭防火墙

安装完docker和docker-compose之后,关闭防火墙:

systemctl stop firewalld

进入/usr/local目录下,创建docker目录

cd /usr/local
mkdir docker

[root@iZwz98qdx9tvkknmzwtbl9Z local]# cd docker/
[root@iZwz98qdx9tvkknmzwtbl9Z docker]# mkdir gitlab_docker
[root@iZwz98qdx9tvkknmzwtbl9Z docker]# cd gitlab_docker/
[root@iZwz98qdx9tvkknmzwtbl9Z gitlab_docker]# pwd
/usr/local/docker/gitlab_docker
[root@iZwz98qdx9tvkknmzwtbl9Z gitlab_docker]# 

2.2 GitLab安装

单独准备服务器(建议2核4G),采用Docker安装。

  • 查看GitLab镜像

    docker search gitlab
  • 拉取GitLab镜像

    docker pull gitlab/gitlab-ce
    [root@iZwz98qdx9tvkknmzwtbl9Z system]# docker pull gitlab/gitlab-ce
    Using default tag: latest
    latest: Pulling from gitlab/gitlab-ce
    e0b25ef51634: Pull complete 
    ed29c48f595e: Pull complete 
    6315b0a0ff4c: Pull complete 
    954b75dd0a36: Pull complete 
    3c497e2821f1: Pull complete 
    d7726e07ef94: Pull complete 
    f4c7f01d0079: Pull complete 
    e961a49d5140: Pull complete 
    Digest: sha256:27239739d2edba94fb4933109ecffbf1e12ef104ded805d90ec328fa4cfa58b4
    Status: Downloaded newer image for gitlab/gitlab-ce:latest
    docker.io/gitlab/gitlab-ce:latest
    [root@iZwz9hjtiwo780imstie1lZ gitlab_docker]# pwd
    /usr/local/docker/gitlab_docker
    [root@iZwz98qdx9tvkknmzwtbl9Z gitlab_docker]# docker images
    REPOSITORY         TAG       IMAGE ID       CREATED      SIZE
    gitlab/gitlab-ce   latest    e4cfcfd64360   8 days ago   2.45GB
    [root@iZwz98qdx9tvkknmzwtbl9Z gitlab_docker]#
  • 准备docker-compose.yml文件

    version: '3.1'
    services:
      gitlab:
        image: 'gitlab/gitlab-ce:latest'
        container_name: gitlab
        restart: always
        environment:
          GITLAB_OMNIBUS_CONFIG: |
            external_url 'http://120.76.202.160:8929'
            gitlab_rails['gitlab_shell_ssh_port'] = 2224
        ports:
          - '8929:8929'
          - '2224:2224'
        volumes:
          - './config:/etc/gitlab'
          - './logs:/var/log/gitlab'
          - './data:/var/opt/gitlab'
  • 启动容器(需要稍等一小会……)

    docker-compose up -d
    [root@iZwz9hjtiwo780imstie1lZ gitlab_docker]# vi docker-compose.yml
    [root@iZwz9hjtiwo780imstie1lZ gitlab_docker]# pwd
    /usr/local/docker/gitlab_docker
    [root@iZwz9hjtiwo780imstie1lZ gitlab_docker]# docker-compose up -d
    [+] Running 2/2
     ⠿ Network gitlab_docker_default  Created                                                                                                            0.1s
     ⠿ Container gitlab               Started                                                                                                            0.6s
    [root@iZwz9hjtiwo780imstie1lZ gitlab_docker]# 

    访问:http://120.76.202.160:8929

    建议至少是2核4G服务器。不然的话可能一直处于502状态。

  • 访问GitLab首页

    用户名:root

    密码:初始密码

    首页
  • 查看root用户初始密码

    docker exec -it gitlab cat /etc/gitlab/initial_root_password
    初始密码
  • 登录root用户

    登录成功后跳转页面
  • 第一次登录后需要修改密码

    修改密码

搞定后,即可像Gitee、GitHub一样使用。

三、Build阶段工具

构建Java项目的工具一般有两种选择,一个是Maven,一个是Gradle。这里我们选择Maven作为项目的编译工具。具体安装Maven流程不做阐述,但是需要确保配置好Maven仓库私服以及JDK编译版本。

  • 将jdk和maven解压到/usr/local下面

    [root@iZwz97sm51bf4kxapt7xzvZ ~]# tar -zxvf jdk-8u231-linux-x64.tar.gz -C /usr/local/
    [root@iZwz97sm51bf4kxapt7xzvZ ~]# tar -zxvf apache-maven-3.6.3-bin.tar.gz -C /usr/local/
  • 修改一下名字

    [root@iZwz97sm51bf4kxapt7xzvZ local]# ll
    drwxr-xr-x   6 root root 4096 Apr 21 15:11 apache-maven-3.6.3
    drwxr-xr-x  10 root root 4096 Apr 12 23:42 go
    drwxr-xr-x   7   10  143 4096 Oct  5  2019 jdk1.8.0_231
    [root@iZwz97sm51bf4kxapt7xzvZ local]# mv jdk1.8.0_231/ jdk
    [root@iZwz97sm51bf4kxapt7xzvZ local]# mv apache-maven-3.6.3/ maven
    [root@iZwz97sm51bf4kxapt7xzvZ local]# ll
    drwxr-xr-x  10 root root 4096 Apr 12 23:42 go
    drwxr-xr-x   7   10  143 4096 Oct  5  2019 jdk
    drwxr-xr-x   6 root root 4096 Apr 21 15:11 maven
    [root@iZwz97sm51bf4kxapt7xzvZ local]# 
  • 设置 maven 为阿里云镜像(:set nu 显示行号)和 jdk8 编译插件配置settings.xml

      <mirrors>
        <!-- mirror
         | Specifies a repository mirror site to use instead of a given repository. The repository that
         | this mirror serves has an ID that matches the mirrorOf element of this mirror. IDs are used
         | for inheritance and direct lookup purposes, and must be unique across the set of mirrors.
         |
        <mirror>
          <id>mirrorId</id>
          <mirrorOf>repositoryId</mirrorOf>
          <name>Human Readable Name for this Mirror.</name>
          <url>http://my.repository.com/repo/path</url>
        </mirror>
         -->
    	<mirror>
    	     <id>alimaven</id>
    	     <name>aliyun maven</name>
    	     <url>https://maven.aliyun.com/nexus/content/groups/public/</url>
    	     <mirrorOf>central</mirrorOf>
    	</mirror> 
      </mirrors>
    
    <profile>
        <id>jdk18</id>
        <activation>
            <activeByDefault>true</activeByDefault>
            <jdk>1.8</jdk>
        </activation>
        <properties>
            <maven.compiler.source>1.8</maven.compiler.source>
            <maven.compiler.target>1.8</maven.compiler.target>
            <maven.compiler.compilerVersion>1.8</maven.compiler.compilerVersion>
        </properties>
    </profile>
    
    <activeProfiles>
           <activeProfile>jdk8</activeProfile>
    </activeProfiles> 

四、Operate阶段工具

部署过程,会采用Docker进行部署,暂时只安装Docker即可,后续还需安装Kubenetes

4.1 Docker安装 (在另一台服务器安装docker)

  • 准备测试环境&生产环境

  • 下载Docker依赖组件

    yum -y install yum-utils device-mapper-persistent-data lvm2
  • 设置下载Docker的镜像源为阿里云

    yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  • 安装Docker服务

    yum -y install docker-ce
  • 安装成功后,启动Docker并设置开机自启

    # 启动Docker服务
    systemctl start docker
    # 设置开机自动启动
    systemctl enable docker
  • 测试安装成功

    docker version
    效果

4.2 Docker-Compose安装

  • 下载Docker/Compose:https://github.com/docker/compose

  • 将下载好的docker-compose-Linux-x86_64文件移动到Linux操作系统:……

  • 设置docker-compose-Linux-x86_64文件权限,并移动到$PATH目录中

    # 设置文件权限,ll查看docker-compose-Linux-x86_64变绿色即可
    chmod +x docker-compose-Linux-x86_64
    
    # 查看路径
    [root@iZwz97sm51bf4kxapt7xzvZ ~]# echo $PATH
    /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:/usr/local/go/bin
    
    # 移动到/usr/bin目录下,并重命名为docker-compose
    mv docker-compose-linux-x86_64 /usr/local/bin/docker-compose
    ## 查看版本
    [root@iZwz97sm51bf4kxapt7xzvZ ~]# docker-compose version
    Docker Compose version v2.2.1
  • 测试安装成功

    docker-compose version
    效果

五、Integrate工具

持续集成、持续部署的工具很多,其中Jenkins是一个开源的持续集成平台。

Jenkins涉及到将编写完毕的代码发布到测试环境和生产环境的任务,并且还涉及到了构建项目等任务。

Jenkins需要大量的插件保证工作,安装成本较高,下面会基于Docker搭建Jenkins。

5.1 Jenkins介绍

Jenkins是一个开源软件项目,是基于Java开发的一种持续集成工具

Jenkins应用广泛,大多数互联网公司都采用Jenkins配合GitLab、Docker、K8s作为实现DevOps的核心工具。

Jenkins最强大的就在于插件,Jenkins官方提供了大量的插件库,来自动化CI/CD过程中的各种琐碎功能。

没安装插件前:弱 安装插件后:强

Jenkins最主要的工作就是将GitLab上可以构建的工程代码拉取并且进行构建,再根据流程可以选择发布到测试环境或是生产环境。

一般是GitLab上的代码经过大量的测试后,确定发行版本,再发布到生产环境。

CI/CD可以理解为:

  • CI过程即是通过Jenkins将代码拉取、构建、制作镜像交给测试人员测试。
    • 持续集成:让软件代码可以持续的集成到主干上,并自动构建和测试。
  • CD过程即是通过Jenkins将打好标签的发行版本代码拉取、构建、制作镜像交给运维人员部署。
    • 持续交付:让经过持续集成的代码可以进行手动部署。
    • 持续部署:让可以持续交付的代码随时随地的自动化部署。
CI、CD

5.2 Jenkins安装

官网:https://www.jenkins.io

支持1800+个插件

推荐这种LTS结尾:https://www.jenkins.io/download

docker pull 下来

https://hub.docker.com/r/jenkins/jenkins/tags?page=1&name=2.332.2

  • 拉取Jenkins镜像

    docker pull jenkins/jenkins:2.332.2-lts
  • 编写docker-compose.yml

    version: "3.1"
    services:
      jenkins:
        image: jenkins/jenkins:2.332.2-lts
        container_name: jenkins
        ports:
          - 8080:8080
          - 50000:50000
        volumes:
          - ./data/:/var/jenkins_home/
    [root@iZwz97sm51bf4kxapt7xzvZ /]# cd usr/local/docker/jenkins_docker/
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# pwd
    /usr/local/docker/jenkins_docker
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# ll
    total 4
    -rw-r--r-- 1 root root 200 Apr 21 16:24 docker-compose.yml
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# docker-compose up -d
    [+] Running 2/2
     ⠿ Network jenkins_docker_default  Created                                                                                                                             0.1s
     ⠿ Container jenkins               Started                                                                                                                             0.7s
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]#
  • 首次启动会因为数据卷data目录没有权限导致启动失败,设置data目录写权限

    错误日志
    chmod -R a+w data/

    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# docker-compose up -d
    [+] Running 2/2
     ⠿ Network jenkins_docker_default  Created                                                                                                                             0.1s
     ⠿ Container jenkins               Started                                                                                                                             0.7s
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# docker logs -f jenkins
    touch: cannot touch '/var/jenkins_home/copy_reference_file.log': Permission denied
    Can not write to /var/jenkins_home/copy_reference_file.log. Wrong volume permissions?
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# chmod -R a+w data/
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# ll
    total 8
    drwxrwxrwx 2 root root 4096 Apr 21 16:37 data
    -rw-r--r-- 1 root root  200 Apr 21 16:24 docker-compose.yml
    [root@iZwz97sm51bf4kxapt7xzvZ jenkins_docker]# docker-compose up -d
    [+] Running 1/1
     ⠿ Container jenkins  Started   
  • 访问

  • 重新启动Jenkins容器后,由于Jenkins需要下载大量内容,但是由于默认下载地址下载速度较慢,需要重新设置下载地址为国内镜像站

    # 修改数据卷中的hudson.model.UpdateCenter.xml文件
    <?xml version='1.1' encoding='UTF-8'?>
    <sites>
      <site>
        <id>default</id>
        <url>https://updates.jenkins.io/update-center.json</url>
      </site>
    </sites>
    # 将下载地址替换为http://mirror.esuni.jp/jenkins/updates/update-center.json
    <?xml version='1.1' encoding='UTF-8'?>
    <sites>
      <site>
        <id>default</id>
        <url>http://mirror.esuni.jp/jenkins/updates/update-center.json</url>
      </site>
    </sites>
    # 清华大学的插件源也可以https://mirrors.tuna.tsinghua.edu.cn/jenkins/updates/update-center.json
  • 再次重启Jenkins容器,访问Jenkins(需要稍微等会)

    Jenkins首页
  • 查看密码登录Jenkins,并登录下载插件

    docker exec -it jenkins cat /var/jenkins_home/secrets/initialAdminPassword
    登录并下载插件
  • 选择需要安装的插件

    选择需要安装的插件

    此处下载插件失败的话,没关系。哪怕全部失败都没关系。点继续进入

  • 下载完毕设置信息进入首页(可能会出现下载失败的插件)

    一般情况是可以下载成功,如果下载失败的话,需要重新配置jenkins和重启jenkins

将jdk和maven位置移到data目录下

[root@iZwz97sm51bf4kxapt7xzvZ data]# pwd
/usr/local/docker/jenkins_docker/data
[root@iZwz97sm51bf4kxapt7xzvZ data]# mv /usr/local/jdk/ ./
[root@iZwz97sm51bf4kxapt7xzvZ data]# mv /usr/local/maven/ ./
[root@iZwz97sm51bf4kxapt7xzvZ data]# ll
total 96
-rw-r--r--  1 1000 1000  1663 Apr 21 16:41 config.xml
-rw-r--r--  1 1000 1000    50 Apr 21 16:40 copy_reference_file.log
-rw-r--r--  1 1000 1000   156 Apr 21 16:40 hudson.model.UpdateCenter.xml
-rw-r--r--  1 1000 1000   371 Apr 21 20:04 hudson.plugins.git.GitTool.xml
-rw-------  1 1000 1000  1712 Apr 21 16:40 identity.key.enc
drwxr-xr-x  7   10  143  4096 Oct  5  2019 jdk
-rw-r--r--  1 1000 1000     7 Apr 21 20:07 jenkins.install.InstallUtil.lastExecVersion
-rw-r--r--  1 1000 1000     7 Apr 21 20:07 jenkins.install.UpgradeWizard.state
-rw-r--r--  1 1000 1000   184 Apr 21 20:06 jenkins.model.JenkinsLocationConfiguration.xml
-rw-r--r--  1 1000 1000   171 Apr 21 16:40 jenkins.telemetry.Correlator.xml
drwxr-xr-x  2 1000 1000  4096 Apr 21 16:40 jobs
drwxr-xr-x  6 root root  4096 Apr 21 15:11 maven
-rw-r--r--  1 1000 1000   907 Apr 21 16:40 nodeMonitors.xml
drwxr-xr-x  2 1000 1000  4096 Apr 21 16:40 nodes
drwxr-xr-x 94 1000 1000 12288 Apr 21 20:11 plugins
-rw-r--r--  1 1000 1000    64 Apr 21 16:40 secret.key
-rw-r--r--  1 1000 1000     0 Apr 21 16:40 secret.key.not-so-secret
drwx------  2 1000 1000  4096 Apr 21 20:09 secrets
drwxr-xr-x  2 1000 1000  4096 Apr 21 20:04 updates
drwxr-xr-x  2 1000 1000  4096 Apr 21 16:40 userContent
drwxr-xr-x  3 1000 1000  4096 Apr 21 20:06 users
drwxr-xr-x 11 1000 1000  4096 Apr 21 16:40 war
drwxr-xr-x  2 1000 1000  4096 Apr 21 20:04 workflow-libs
[root@iZwz97sm51bf4kxapt7xzvZ data]# 

[root@iZwz97sm51bf4kxapt7xzvZ data]# cat ../docker-compose.yml 
version: "3.1"
services:
  jenkins:
    image: jenkins/jenkins:2.332.2-lts
    container_name: jenkins
    ports:
      - 8080:8080
      - 50000:50000
    volumes:
      - ./data/:/var/jenkins_home/
[root@iZwz97sm51bf4kxapt7xzvZ data]# docker exec -it bash
"docker exec" requires at least 2 arguments.
See 'docker exec --help'.

Usage:  docker exec [OPTIONS] CONTAINER COMMAND [ARG...]

Run a command in a running container
[root@iZwz97sm51bf4kxapt7xzvZ data]# cat ../docker-compose.yml 
version: "3.1"
services:
  jenkins:
    image: jenkins/jenkins:2.332.2-lts
    container_name: jenkins
    ports:
      - 8080:8080
      - 50000:50000
    volumes:
      - ./data/:/var/jenkins_home/
[root@iZwz97sm51bf4kxapt7xzvZ data]# docker exec -it jenkins bash
jenkins@8cda8ed282ca:/$ cd ~
jenkins@8cda8ed282ca:~$ pwd
/var/jenkins_home
jenkins@8cda8ed282ca:~$ ls
config.xml			jdk						jobs		  secret.key		    users
copy_reference_file.log		jenkins.install.InstallUtil.lastExecVersion	maven		  secret.key.not-so-secret  war
hudson.model.UpdateCenter.xml	jenkins.install.UpgradeWizard.state		nodeMonitors.xml  secrets		    workflow-libs
hudson.plugins.git.GitTool.xml	jenkins.model.JenkinsLocationConfiguration.xml	nodes		  updates
identity.key.enc		jenkins.telemetry.Correlator.xml		plugins		  userContent
jenkins@8cda8ed282ca:~$
  • 设置全局配置

通过配置插件Publish Over SSH 连接到目标服务器(前面已经下载好插件了)

Gitlab创建项目

先设置本地的 git config –list –global 与gitlab这里一致

gitlab上项目创建成功

将本地项目提交到gitlab(确保本地项目没问题)

image-20220421225356727

push成功

Jenkins实现CI操作

5.3 Jenkins入门配置

由于Jenkins需要从Git拉取代码、需要本地构建、甚至需要直接发布自定义镜像到Docker仓库,所以Jenkins需要配置大量内容。

5.3.1 构建任务

准备好GitLab仓库中的项目,并且通过Jenkins配置项目的实现当前项目的DevOps基本流程。

  • 构建Maven工程发布到GitLab(Gitee、Github均可)

    GitLab查看项目
  • Jenkins点击左侧导航新建任务

    新建任务
  • 选择自由风格构建任务

    构建任务
5.3.1 配置源码拉取地址

Jenkins需要将Git上存放的源码存储到Jenkins服务所在磁盘的本地

  • 配置任务源码拉取的地址

    源码管理
  • Jenkins立即构建

    点击任务test中的立即构建
  • 查看构建工程的日志,点击上述③的任务条即可

    查看任务拉取Git源码日志

    可以看到源码已经拉取带Jenkins本地,可以根据第三行日志信息,查看Jenkins本地拉取到的源码。

  • 查看Jenkins容器中/var/jenkins_home/workspace/test的源码

    docker exec -it jenkins bash
    cd /var/jenkins_home/workspace/mytest
    源码存放位置
5.3.2 配置Maven构建代码

代码拉取到Jenkins本地后,需要在Jenkins中对代码进行构建,这里需要Maven的环境,而Maven需要Java的环境,接下来需要在Jenkins中安装JDK和Maven,并且配置到Jenkins服务。

  • 准备JDK、Maven压缩包通过数据卷映射到Jenkins容器内部

    数据卷存放位置
  • 解压压缩包,并配置Maven的settings.xml

    <!-- 阿里云镜像地址 -->
    <mirror>  
        <id>alimaven</id>  
        <name>aliyun maven</name>  
        <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
        <mirrorOf>central</mirrorOf>          
    </mirror>
    <!-- JDK1.8编译插件 -->
    <profile>
        <id>jdk-1.8</id>
        <activation>
            <activeByDefault>true</activeByDefault>
            <jdk>1.8</jdk>
        </activation>
        <properties>
            <maven.compiler.source>1.8</maven.compiler.source>
            <maven.compiler.target>1.8</maven.compiler.target>
            <maven.compiler.compilerVersion>1.8</maven.compiler.compilerVersion>
        </properties>        
    </profile>
  • Jenkins配置JDK&Maven并保存

  • 配置Jenkins任务构建代码

    配置Maven构建代码
    clean package -DskipTest
  • 立即构建测试,查看target下的jar包

    构建源码
5.3.3 配置Publish发布&远程操作

jar包构建好之后,就可以根据情况发布到测试或生产环境,这里需要用到之前下载好的插件Publish Over SSH。

  • 配置Publish Over SSH连接测试、生产环境

    Publish Over SSH配置
  • 配置任务的构建后操作,发布jar包到目标服务

    配置构建后操作
  • 立即构建任务,并去目标服务查看

    立即构建

六、CI、CD入门操作

基于Jenkins拉取GitLab的SpringBoot代码进行构建发布到测试环境实现持续集成

基于Jenkins拉取GitLab指定发行版本的SpringBoot代码进行构建发布到生产环境实现CD实现持续部署

6.1 持续集成

为了让程序代码可以自动推送到测试环境基于Docker服务运行,需要添加Docker配置和脚本文件让程序可以在集成到主干的同时运行起来。

https://hub.daocloud.io/repos/899fd292-3dfc-4e31-b19e-c547d623f624

  • 添加Dockerfile文件

    FROM daocloud.io/library/java:8u40-jdk
    COPY mytest.jar /usr/local/
    WORKDIR /usr/local
    CMD java -jar mytest.jar
    构建自定义镜像
  • 添加docker-compose.yml文件

    version: '3.1'
    services:
      mytest:
        build:
          context: ./
          dockerfile: Dockerfile
        image: mytest:v1.0.0
        container_name: mytest
        ports:
          - 8888:8080
    加载自定义镜像启动容器
  • 追加Jenkins构建后操作脚本命令

    cd /usr/local/test/docker
    mv ../target/mytest.jar ./mytest.jar
    docker-compose down
    docker-compose up -d --build
    docker image prune -f
    构建后发布并执行脚本命令
  • 发布到GitLab后由Jenkins立即构建并托送到目标服务器

    构建日志
  • 测试部署到目标服务器程序

    查看目标服务器并测试接口
    阿里云需要先开放端口8888。访问:http://120.25.145.188:8888/test

这里有个小问题 docker image prune -f 清除不了,零时镜像,我采用手动清除

[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker images
REPOSITORY                   TAG           IMAGE ID       CREATED          SIZE
mytest                       v1.0.0        3119ad443d1d   7 minutes ago    833MB
<none>                       <none>        2f8f0acf95b8   14 minutes ago   833MB
<none>                       <none>        48b843e6bf68   29 minutes ago   833MB
jenkins/jenkins              2.332.2-lts   fd576e09d155   2 weeks ago      464MB
120.25.145.188:5000/jdk1.8   latest        889915745bd6   2 weeks ago      588MB
jdk1.8                       latest        889915745bd6   2 weeks ago      588MB
registry                     latest        2e200967d166   2 weeks ago      24.1MB
mysql                        latest        667ee8fb158e   3 weeks ago      521MB
centos                       7             eeb6ee3f44bd   7 months ago     204MB
daocloud.io/library/java     8u40-jdk      4aefdb29fd43   7 years ago      815MB
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker image prune -f
Total reclaimed space: 0B
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker ps -a|grep 2f8f0acf95b8
9ace7ddc9992   2f8f0acf95b8                  "/bin/sh -c '#(nop) …"   22 minutes ago   Created                                                                                                                elastic_ganguly
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rmi 9ace7ddc9992
Error: No such image: 9ace7ddc9992
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rmi 9ace7ddc9992
Error: No such image: 9ace7ddc9992
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rmi 2f8f0acf95b8
Error response from daemon: conflict: unable to delete 2f8f0acf95b8 (must be forced) - image is being used by stopped container 9ace7ddc9992
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rm -f 9ace7ddc9992
9ace7ddc9992
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker images
REPOSITORY                   TAG           IMAGE ID       CREATED          SIZE
mytest                       v1.0.0        3119ad443d1d   16 minutes ago   833MB
<none>                       <none>        2f8f0acf95b8   23 minutes ago   833MB
<none>                       <none>        48b843e6bf68   39 minutes ago   833MB
jenkins/jenkins              2.332.2-lts   fd576e09d155   2 weeks ago      464MB
120.25.145.188:5000/jdk1.8   latest        889915745bd6   2 weeks ago      588MB
jdk1.8                       latest        889915745bd6   2 weeks ago      588MB
registry                     latest        2e200967d166   2 weeks ago      24.1MB
mysql                        latest        667ee8fb158e   3 weeks ago      521MB
centos                       7             eeb6ee3f44bd   7 months ago     204MB
daocloud.io/library/java     8u40-jdk      4aefdb29fd43   7 years ago      815MB
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker ps -a | grep 48b843e6bf68
d7e1d4d752e0   48b843e6bf68                  "/bin/sh -c '#(nop) …"   39 minutes ago   Created                                                                                                                beautiful_galileo
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rm -f d7e1d4d752e0
d7e1d4d752e0
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker images
REPOSITORY                   TAG           IMAGE ID       CREATED          SIZE
mytest                       v1.0.0        3119ad443d1d   17 minutes ago   833MB
<none>                       <none>        2f8f0acf95b8   25 minutes ago   833MB
<none>                       <none>        48b843e6bf68   40 minutes ago   833MB
jenkins/jenkins              2.332.2-lts   fd576e09d155   2 weeks ago      464MB
120.25.145.188:5000/jdk1.8   latest        889915745bd6   2 weeks ago      588MB
jdk1.8                       latest        889915745bd6   2 weeks ago      588MB
registry                     latest        2e200967d166   2 weeks ago      24.1MB
mysql                        latest        667ee8fb158e   3 weeks ago      521MB
centos                       7             eeb6ee3f44bd   7 months ago     204MB
daocloud.io/library/java     8u40-jdk      4aefdb29fd43   7 years ago      815MB
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rmi 2f8f0acf95b8
Deleted: sha256:2f8f0acf95b87c397aa614d1222ea3290dc45134ba51c11623c3ac4a8832fb18
[root@iZwz97sm51bf4kxapt7xzvZ docker]# docker rmi 48b843e6bf68
Deleted: sha256:48b843e6bf68445edd6b518dc52329d032ea567935cea6ae43a6c17ee479a3f7
[root@iZwz97sm51bf4kxapt7xzvZ docker]#

6.2 持续交付、部署

程序代码在经过多次集成操作到达最终可以交付,持续交付整体流程和持续集成类似,不过需要选取指定的发行版本

  • 下载Git Parameter插件

    下载Git Parameter
  • 设置项目参数化构建

    基于Git标签构建
  • 给项目添加tag版本

    添加tag版本
  • 任务构建时,采用Shell方式构建,拉取指定tag版本代码

    cd /var/jenkins_home/workspace/mytest
    git checkout $tag
    /var/jenkins_home/maven/bin/mvn package
    切换指定标签并构建项目
  • 基于Parameter构建任务,任务发布到目标服务器

    构建v2.0.0任务
    构建完成后访问

到这一步,Jenkins的入门cicd就完成了。

七、集成Sonar Qube

7.1 Sonar Qube介绍

官网:https://www.sonarqube.org/downloads

Sonar Qube是一个开源的代码分析平台,支持Java、Python、PHP、JavaScript、CSS等25种以上的语言,可以检测出重复代码、代码漏洞、代码规范和安全性漏洞的问题。

Sonar Qube可以与多种软件整合进行代码扫描,比如Maven,Gradle,Git,Jenkins等,并且会将代码检测结果推送回Sonar Qube并且在系统提供的UI界面上显示出来

Sonar Qube的UI界面

7.2 Sonar Qube环境搭建

7.2.1 Sonar Qube安装

Sonar Qube在7.9版本中已经放弃了对MySQL的支持,并且建议在商业环境中采用PostgreSQL,那么安装Sonar Qube时需要依赖PostgreSQL。

并且这里会安装Sonar Qube的长期支持版本8.9

  • 拉取镜像

    docker pull postgres
    docker pull sonarqube:8.9.6-community
    cd /usr/local/docker/sonarqube_docker
    vi docker-compose.yml
  • 编写docker-compose.yml

    version: "3.1"
    services:
      db:
        image: postgres
        container_name: db
        ports:
          - 5432:5432
        networks:
          - sonarnet
        environment:
          POSTGRES_USER: sonar
          POSTGRES_PASSWORD: sonar
      sonarqube:
        image: sonarqube:8.9.6-community
        container_name: sonarqube
        depends_on:
          - db
        ports:
          - "9000:9000"
        networks:
          - sonarnet
        environment:
          SONAR_JDBC_URL: jdbc:postgresql://db:5432/sonar
          SONAR_JDBC_USERNAME: sonar
          SONAR_JDBC_PASSWORD: sonar
    networks:
      sonarnet:
        driver: bridge
  • 启动容器

    docker-compose up -d
  • 需要设置sysctl.conf文件信息

    vi /etc/sysctl.conf
    设置 vm.max_map_count=262144

    并执行命令刷新

    sysctl -p
  • 重新启动需要一定时间启动,可以可以查看容器日志,看到如下内容代表启动成功

    容器日志
  • 访问Sonar Qube首页

    登录
  • 还需要重新设置一次密码

    重新设置密码
  • Sonar Qube首页

    Sonar Qube首页
7.2.2 安装中文插件
安装中文插件

安装成功后需要重启,安装失败重新点击install重装即可。

安装成功后,会查看到重启按钮,点击即可

重启按钮

重启后查看效果

首页效果

7.3 Sonar Qube基本使用

Sonar Qube的使用方式很多,Maven可以整合,也可以采用sonar-scanner的方式,再查看Sonar Qube的检测效果

7.3.1 Maven实现代码检测
  • 修改Maven的settings.xml文件配置Sonar Qube信息

    <profile>
        <id>sonar</id>
        <activation>
            <activeByDefault>true</activeByDefault>
        </activation>
        <properties>
            <sonar.login>admin</sonar.login>
            <sonar.password>123456789</sonar.password>
            <sonar.host.url>http://192.168.11.11:9000</sonar.host.url>
        </properties>
    </profile>
  • 在代码位置执行命令:mvn sonar:sonar

    执行代码检测
  • 查看Sonar Qube界面检测结果

    Sonar Qube检测结果
7.3.2 Sonar-scanner实现代码检测
  • 下载Sonar-scanner:https://binaries.sonarsource.com/Distribution/sonar-scanner-cli/

    下载4.6.x版本即可,要求Linux版本

  • 解压并配置sonar服务端信息

    • 由于是zip压缩包,需要安装unzip解压插件

      yum -y install unzip
    • 解压压缩包

      unzip sonar-scanner-cli/sonar-scanner-cli-4.6.0.2311-linux.zip
    • 配置sonarQube服务端地址,修改conf下的sonar-scanner.properties

      配置服务端信息
  • 执行命令检测代码

    # 在项目所在目录执行以下命令
    ~/sonar-scanner/bin/sonar-scanner -Dsonar.sources=./ -Dsonar.projectname=demo -Dsonar.projectKey=java -Dsonar.java.binaries=target/

    Ps:主要查看我的sonar-scanner执行命令的位置

    查看日志信息
  • 查看SonarQube界面检测结果

    检测结果

7.4 Jenkins集成Sonar Qube

Jenkins继承Sonar Qube实现代码扫描需要先下载整合插件

7.4.1 Jenkins安装插件
下载Sonar Qube插件
7.4.2 Jenkins配置Sonar Qube
  • 开启Sonar Qube权限验证

    开启Sonar Qube权限校验
  • 获取Sonar Qube的令牌

    获取令牌
  • 配置Jenkins的Sonar Qube信息

7.4.3 配置Sonar-scanner
  • 将Sonar-scaner添加到Jenkins数据卷中并配置全局配置

    配置Sonar-scanner
  • 配置任务的Sonar-scanner

    配置任务的Sonar-scanner
7.4.4 构建任务
构建任务

八、集成Harbor

8.1 Harbor介绍

前面在部署项目时,我们主要采用Jenkins推送jar包到指定服务器,再通过脚本命令让目标服务器对当前jar进行部署,这种方式在项目较多时,每个目标服务器都需要将jar包制作成自定义镜像再通过docker进行启动,重复操作比较多,会降低项目部署时间。

我们可以通过Harbor作为私有的Docker镜像仓库。让Jenkins统一将项目打包并制作成Docker镜像发布到Harbor仓库中,只需要通知目标服务,让目标服务统一去Harbor仓库上拉取镜像并在本地部署即可。

Docker官方提供了Registry镜像仓库,但是Registry的功能相对简陋。Harbor是VMware公司提供的一款镜像仓库,提供了权限控制、分布式发布、强大的安全扫描与审查机制等功能

8.2 Harbor安装

这里采用原生的方式安装Harbor。

8.3 Harbor使用方式

Harbor作为镜像仓库,主要的交互方式就是将镜像上传到Harbor上,以及从Harbor上下载指定镜像

在传输镜像前,可以先使用Harbor提供的权限管理,将项目设置为私有项目,并对不同用户设置不同角色,从而更方便管理镜像。

8.3.1 添加用户构建项目
  • 创建用户

    创建用户
  • 构建项目(设置为私有)

    构建项目
  • 给项目追加用户

    追加用户管理
  • 切换测试用户

    切换测试用户
8.3.2 发布镜像到Harbor
  • 修改镜像名称

    名称要求:harbor地址/项目名/镜像名:版本

    修改镜像名称
  • 修改daemon.json,支持Docker仓库,并重启Docker

    修改daemon.json,支持Docker仓库
  • 设置登录仓库信息

    docker login -u 用户名 -p 密码 Harbor地址
  • 推送镜像到Harbor

    推送镜像到Harbor
8.3.3 从Harbor拉取镜像ls

跟传统方式一样,不过需要先配置/etc/docker/daemon.json文件

{
        "registry-mirrors": ["https://pee6w651.mirror.aliyuncs.com"],
        "insecure-registries": ["192.168.11.11:80"]
}
拉取镜像
8.3.4 Jenkins容器使用宿主机Docker

构建镜像和发布镜像到harbor都需要使用到docker命令。而在Jenkins容器内部安装Docker官方推荐直接采用宿主机带的Docker即可。

设置Jenkins容器使用宿主机Docker

  • 设置宿主机docker.sock权限:

    sudo chown root:root /var/run/docker.sock
    sudo chmod o+rw /var/run/docker.sock
  • 添加数据卷

    version: "3.1"
    services:
      jenkins:
        image: jenkins/jenkins
        container_name: jenkins
        ports:
          - 8080:8080
          - 50000:50000
        volumes:
          - ./data/:/var/jenkins_home/
          - /usr/bin/docker:/usr/bin/docker
          - /var/run/docker.sock:/var/run/docker.sock
          - /etc/docker/daemon.json:/etc/docker/daemon.json
8.3.5 添加构建操作
制作自定义镜像
8.3.6 编写部署脚本

部署项目需要通过Publish Over SSH插件,让目标服务器执行命令。为了方便一次性实现拉取镜像和启动的命令,推荐采用脚本文件的方式。

添加脚本文件到目标服务器,再通过Publish Over SSH插件让目标服务器执行脚本即可。

  • 编写脚本文件,添加到目标服务器

    harbor_url=$1
    harbor_project_name=$2
    project_name=$3
    tag=$4
    port=$5
    
    imageName=$harbor_url/$harbor_project_name/$project_name:$tag
    
    containerId=`docker ps -a | grep ${project_name} | awk '{print $1}'`
    if [ "$containerId" != "" ] ; then
        docker stop $containerId
        docker rm $containerId
        echo "Delete Container Success"
    fi
    
    imageId=`docker images | grep ${project_name} | awk '{print $3}'`
    
    if [ "$imageId" != "" ] ; then
        docker rmi -f $imageId
        echo "Delete Image Success"
    fi
    
    docker login -u DevOps -p P@ssw0rd $harbor_url
    
    docker pull $imageName
    
    docker run -d -p $port:$port --name $project_name $imageName
    
    echo "Start Container Success"
    echo $project_name

    并设置权限为可执行

    chmod a+x deploy.sh
    如图
8.3.7 配置构建后操作
执行脚本文件

九、Jenkins流水线

9.1 Jenkins流水线任务介绍

之前采用Jenkins的自由风格构建的项目,每个步骤流程都要通过不同的方式设置,并且构建过程中整体流程是不可见的,无法确认每个流程花费的时间,并且问题不方便定位问题。

Jenkins的Pipeline可以让项目的发布整体流程可视化,明确执行的阶段,可以快速的定位问题。并且整个项目的生命周期可以通过一个Jenkinsfile文件管理,而且Jenkinsfile文件是可以放在项目中维护。

所以Pipeline相对自由风格或者其他的项目风格更容易操作。

9.2 Jenkins流水线任务

9.2.1 构建Jenkins流水线任务
  • 构建任务

    构建Jenkins流水线任务
  • 生成Groovy脚本

    Hello World脚本生成
  • 构建后查看视图

    构建后查看视图
9.2.2 Groovy脚本
  • Groovy脚本基础语法

    // 所有脚本命令包含在pipeline{}中
    pipeline {  
    	// 指定任务在哪个节点执行(Jenkins支持分布式)
        agent any
        
        // 配置全局环境,指定变量名=变量值信息
        environment{
        	host = '192.168.11.11'
        }
    
        // 存放所有任务的合集
        stages {
        	// 单个任务
            stage('任务1') {
            	// 实现任务的具体流程
                steps {
                    echo 'do something'
                }
            }
    		// 单个任务
            stage('任务2') {
            	// 实现任务的具体流程
                steps {
                    echo 'do something'
                }
            }
            // ……
        }
    }
  • 编写例子测试

    pipeline {
        agent any
    
        // 存放所有任务的合集
        stages {
            stage('拉取Git代码') {
                steps {
                    echo '拉取Git代码'
                }
            }
    
            stage('检测代码质量') {
                steps {
                    echo '检测代码质量'
                }
            }
    
            stage('构建代码') {
                steps {
                    echo '构建代码'
                }
            }
    
            stage('制作自定义镜像并发布Harbor') {
                steps {
                    echo '制作自定义镜像并发布Harbor'
                }
            }
    
            stage('基于Harbor部署工程') {
                steps {
                    echo '基于Harbor部署工程'
                }
            }
        }
    }
    配置Grovvy脚本
  • 查看效果

    查看效果

Ps:涉及到特定脚本,Jenkins给予了充足的提示,可以自动生成命令

生成命令位置
9.2.3 Jenkinsfile实现

Jenkinsfile方式需要将脚本内容编写到项目中的Jenkinsfile文件中,每次构建会自动拉取项目并且获取项目中Jenkinsfile文件对项目进行构建

  • 配置pipeline

    配置pipeline
  • 准备Jenkinsfile

    准备Jenkinsfile文件
  • 测试效果

    测试效果

9.3 Jenkins流水线任务实现

9.3.1 参数化构建

添加参数化构建,方便选择不的项目版本

Git参数化构建
9.3.2 拉取Git代码

通过流水线语法生成Checkout代码的脚本

语法生成

将*/master更改为标签${tag}

pipeline {
    agent any
    stages {

        stage('拉取Git代码') {
            steps {
                checkout([$class: 'GitSCM', branches: [[name: '${tag}']], extensions: [], userRemoteConfigs: [[url: 'http://49.233.115.171:8929/root/test.git']]])
            }
        }
    }
}
9.3.3 构建代码

通过脚本执行mvn的构建命令

pipeline {
    agent any

    stages {

        stage('拉取Git代码') {
            steps {
                checkout([$class: 'GitSCM', branches: [[name: '${tag}']], extensions: [], userRemoteConfigs: [[url: 'http://49.233.115.171:8929/root/test.git']]])
            }
        }

        stage('构建代码') {
            steps {
                sh '/var/jenkins_home/maven/bin/mvn clean package -DskipTests'
            }
        }
}
9.3.4 代码质量检测

通过脚本执行sonar-scanner命令即可

pipeline {
    agent any

    stages {

        stage('拉取Git代码') {
            steps {
                checkout([$class: 'GitSCM', branches: [[name: '${tag}']], extensions: [], userRemoteConfigs: [[url: 'http://49.233.115.171:8929/root/test.git']]])
            }
        }

        stage('构建代码') {
            steps {
                sh '/var/jenkins_home/maven/bin/mvn clean package -DskipTests'
            }
        }

        stage('检测代码质量') {
            steps {
                sh '/var/jenkins_home/sonar-scanner/bin/sonar-scanner -Dsonar.sources=./ -Dsonar.projectname=${JOB_NAME} -Dsonar.projectKey=${JOB_NAME} -Dsonar.java.binaries=target/ -Dsonar.login=31388be45653876c1f51ec02f0d478e2d9d0e1fa' 
            }
        }
    }
}
9.3.5 制作自定义镜像并发布
  • 生成自定义镜像脚本

    pipeline {
        agent any
        environment{
            harborHost = '192.168.11.11:80'
            harborRepo = 'repository'
            harborUser = 'DevOps'
            harborPasswd = 'P@ssw0rd'
        }
    
        // 存放所有任务的合集
        stages {
    
            stage('拉取Git代码') {
                steps {
                    checkout([$class: 'GitSCM', branches: [[name: '${tag}']], extensions: [], userRemoteConfigs: [[url: 'http://49.233.115.171:8929/root/test.git']]])
                }
            }
    
            stage('构建代码') {
                steps {
                    sh '/var/jenkins_home/maven/bin/mvn clean package -DskipTests'
                }
            }
    
            stage('检测代码质量') {
                steps {
                    sh '/var/jenkins_home/sonar-scanner/bin/sonar-scanner -Dsonar.sources=./ -Dsonar.projectname=${JOB_NAME} -Dsonar.projectKey=${JOB_NAME} -Dsonar.java.binaries=target/ -Dsonar.login=31388be45653876c1f51ec02f0d478e2d9d0e1fa' 
                }
            }
    
            stage('制作自定义镜像并发布Harbor') {
                steps {
                    sh '''cp ./target/*.jar ./docker/
                    cd ./docker
                    docker build -t ${JOB_NAME}:${tag} ./'''
    
                    sh '''docker login -u ${harborUser} -p ${harborPasswd} ${harborHost}
                    docker tag ${JOB_NAME}:${tag} ${harborHost}/${harborRepo}/${JOB_NAME}:${tag}
                    docker push ${harborHost}/${harborRepo}/${JOB_NAME}:${tag}'''
                }
            }
        }
    }
  • 生成Publish Over SSH脚本

    pipeline {
        agent any
        environment{
            harborHost = '192.168.11.11:80'
            harborRepo = 'repository'
            harborUser = 'DevOps'
            harborPasswd = 'P@ssw0rd'
        }
    
        // 存放所有任务的合集
        stages {
    
            stage('拉取Git代码') {
                steps {
                    checkout([$class: 'GitSCM', branches: [[name: '${tag}']], extensions: [], userRemoteConfigs: [[url: 'http://49.233.115.171:8929/root/test.git']]])
                }
            }
    
            stage('构建代码') {
                steps {
                    sh '/var/jenkins_home/maven/bin/mvn clean package -DskipTests'
                }
            }docker
    
            stage('检测代码质量') {
                steps {
                    sh '/var/jenkins_home/sonar-scanner/bin/sonar-scanner -Dsonar.sources=./ -Dsonar.projectname=${JOB_NAME} -Dsonar.projectKey=${JOB_NAME} -Dsonar.java.binaries=target/ -Dsonar.login=7d66af4b39cfe4f52ac0a915d4c9d5c513207098' 
                }
            }
    
            stage('制作自定义镜像并发布Harbor') {
                steps {
                    sh '''cp ./target/*.jar ./docker/
                    cd ./docker
                    docker build -t ${JOB_NAME}:${tag} ./'''
    
                    sh '''docker login -u ${harborUser} -p ${harborPasswd} ${harborHost}
                    docker tag ${JOB_NAME}:${tag} ${harborHost}/${harborRepo}/${JOB_NAME}:${tag}
                    docker push ${harborHost}/${harborRepo}/${JOB_NAME}:${tag}'''
                }
            }
            
            stage('目标服务器拉取镜像并运行') {
                steps {
                    sshPublisher(publishers: [sshPublisherDesc(configName: 'testEnvironment', transfers: [sshTransfer(cleanRemote: false, excludes: '', execCommand: "/usr/bin/deploy.sh $harborHost $harborRepo $JOB_NAME $tag $port ", execTimeout: 120000, flatten: false, makeEmptyDirs: false, noDefaultExcludes: false, patternSeparator: '[, ]+', remoteDirectory: '', remoteDirectorySDF: false, removePrefix: '', sourceFiles: '')], usePromotionTimestamp: false, useWorkspaceInPromotion: false, verbose: false)])
                }
            }
        }
    }

Ps:由于采用变量,记得使用双引号

9.4 Jenkins流水线整合钉钉

在程序部署成功后,可以通过钉钉的机器人及时向群众发送部署的最终结果通知

  • 安装插件

    安装插件
  • 钉钉内部创建群组并构建机器人

    钉钉内部创建群组并构建机器人

    最终或获取到Webhook信息

    https://oapi.dingtalk.com/robot/send?access_token=kej4ehkj34gjhg34jh5bh5jb34hj53b4
  • 系统配置添加钉钉通知

    配置钉钉通知
  • 任务中追加流水线配置

    pipeline {
        agent any
    
        environment {
            sonarLogin = '2bab7bf7d5af25e2c2ca2f178af2c3c55c64d5d8'
            harborUser = 'admin'
            harborPassword = 'Harbor12345'
            harborHost = '192.168.11.12:8888'
            harborRepo = 'repository'
        }
    
        stages {
            stage('拉取Git代码'){
                steps {
                    checkout([$class: 'GitSCM', branches: [[name: '$tag']], extensions: [], userRemoteConfigs: [[url: 'http://49.233.115.171:8929/root/lsx.git']]])
                }
            }
            stage('Maven构建代码'){
                steps {
                    sh '/var/jenkins_home/maven/bin/mvn clean package -DskipTests'
                }
            }
            stage('SonarQube检测代码'){
                steps {
                    sh '/var/jenkins_home/sonar-scanner/bin/sonar-scanner -Dsonar.sources=./ -Dsonar.projectname=${JOB_NAME} -Dsonar.projectKey=${JOB_NAME} -Dsonar.java.binaries=target/ -Dsonar.login=${sonarLogin}'
                }
            }
            stage('制作自定义镜像'){
                steps {
                    sh '''cd docker
                    mv ../target/*.jar ./
                    docker build -t ${JOB_NAME}:$tag .
                    '''
                }
            }
    
            stage('推送自定义镜像'){
                steps {
                    sh '''docker login -u ${harborUser} -p ${harborPassword} ${harborHost}
                    docker tag ${JOB_NAME}:$tag ${harborHost}/${harborRepo}/${JOB_NAME}:$tag
                    docker push ${harborHost}/${harborRepo}/${JOB_NAME}:$tag'''
                }
            }
    
            stage('通知目标服务器'){
                steps {
                    sshPublisher(publishers: [sshPublisherDesc(configName: 'centos-docker', transfers: [sshTransfer(cleanRemote: false, excludes: '', execCommand: "/usr/bin/deploy.sh $harborHost $harborRepo $JOB_NAME $tag $port", execTimeout: 120000, flatten: false, makeEmptyDirs: false, noDefaultExcludes: false, patternSeparator: '[, ]+', remoteDirectory: '', remoteDirectorySDF: false, removePrefix: '', sourceFiles: '')], usePromotionTimestamp: false, useWorkspaceInPromotion: false, verbose: false)])
                }  
            }
        }
        post {
            success {
                dingtalk (
                    robot: 'Jenkins-DingDing',
                    type:'MARKDOWN',
                    title: "success: ${JOB_NAME}",
                    text: ["- 成功构建:${JOB_NAME}项目!\n- 版本:${tag}\n- 持续时间:${currentBuild.durationString}\n- 任务:#${JOB_NAME}"]
                )
            }
            failure {
                dingtalk (
                    robot: 'Jenkins-DingDing',
                    type:'MARKDOWN',
                    title: "fail: ${JOB_NAME}",
                    text: ["- 失败构建:${JOB_NAME}项目!\n- 版本:${tag}\n- 持续时间:${currentBuild.durationString}\n- 任务:#${JOB_NAME}"]
                )
            }
        }
    }
  • 查看效果

    钉钉通知效果

十、Kubernetes编排工具

10.1 Kubernetes介绍

Kubernetes是一个开源的,用于管理云平台中多个主机上的容器化的应用,Kubernetes的目标是让部署容器化的应用简单并且高效(powerful),Kubernetes提供了应用部署,规划,更新,维护的一种机制。

Kubernetes一个核心的特点就是能够自主的管理容器来保证云平台中的容器按照用户的期望状态运行着,管理员可以加载一个微型服务,让规划器来找到合适的位置,同时,Kubernetes也系统提升工具以及人性化方面,让用户能够方便的部署自己的应用。

Kubernetes主要能帮助我们完成:

  • 服务发现和负载均衡

    Kubernetes 可以使用 DNS 名称或自己的 IP 地址公开容器,如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。

  • 存储编排

    Kubernetes 允许你自动挂载你选择的存储系统,比如本地存储,类似Docker的数据卷。

  • 自动部署和回滚

    你可以使用 Kubernetes 描述已部署容器的所需状态,它可以以受控的速率将实际状态 更改为期望状态。Kubernetes 会自动帮你根据情况部署创建新容器,并删除现有容器给新容器提供资源。

  • 自动完成装箱计算

    Kubernetes 允许你设置每个容器的资源,比如CPU和内存。

  • 自我修复

    Kubernetes 重新启动失败的容器、替换容器、杀死不响应用户定义的容器,并运行状况检查的容器。

  • 秘钥与配置管理

    Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 ssh 密钥。你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。

k8s管理容器方式

pod上层管理deployment,deployment上层管理service,是暴露服务的位置

流程:用户访问域名,ingress会找到某个service,service经过负载均衡找到deployment部署的某一个容器

10.2 Kubernetes架构

Kubernetes 搭建需要至少两个节点,一个Master负责管理,一个Slave搭建在工作服务器上负责分配。

kubernetes架构

从图中可以看到各个组件的基本功能:

  • API Server:资源操作的唯一入口,接受用户输入的命令,提供认证,授权、API注册和发现等机制。作为K8s通讯的核心组件,K8s内部交互以及接收发送指令的组件。(相当于MVC模式前端控制器)

  • etcd:一个key-value的数据库,存储集群的状态信息

  • controller-manager:负责维护集群的状态,比如程序部署安排,故障检测,自动扩展,滚动更新等

  • scheduler:负责集群资源的调度,按照预定的调度策略将pod调度到相应的node节点上。负责调度每个工作节点

  • cloud-controller-manager:负责调度其他云服务产品


  • kubelet:管理Pods上面的容器。

  • kube-proxy:负责提供集群内部的服务发现和负载均衡。(类似网关)

  • Pod:1个pod可以包含1个或多个容器,可以理解为pod是容器的容器。

10.3 Kubernetes安装

这里会采用https://kuboard.cn/提供的方式安装K8s,安装单Master节点

安装流程

安装流程

准备好服务器后开始安装

  • 重新设置hostname,不允许为localhost

    # 修改 hostname,名字不允许使用下划线、小数点、大写字母,不能叫master
    hostnamectl set-hostname your-new-host-name
    # 查看修改结果
    hostnamectl status
    # 设置 hostname 解析
    echo "127.0.0.1   $(hostname)" >> /etc/hosts
  • 要求2台服务之间可以相互通讯

  • 安装软件

    # 阿里云 docker hub 镜像
    export REGISTRY_MIRROR=https://registry.cn-hangzhou.aliyuncs.com
    curl -sSL https://kuboard.cn/install-script/v1.19.x/install_kubelet.sh | sh -s 1.19.5

首先初始化Master节点

关于初始化时用到的环境变量

  • APISERVER_NAME 不能是 master 的 hostname
  • APISERVER_NAME 必须全为小写字母、数字、小数点,不能包含减号
  • POD_SUBNET 所使用的网段不能与 master节点/worker节点 所在的网段重叠。该字段的取值为一个 CIDR 值,如果您对 CIDR 这个概念还不熟悉,请仍然执行 export POD_SUBNET=10.100.0.0/16 命令,不做修改
  • 设置ip,域名,网段并执行初始化操作

    # 只在 master 节点执行
    # 替换 x.x.x.x 为 master 节点实际 IP(请使用内网 IP)
    # export 命令只在当前 shell 会话中有效,开启新的 shell 窗口后,如果要继续安装过程,请重新执行此处的 export 命令
    export MASTER_IP=192.168.11.32
    # 替换 apiserver.demo 为 您想要的 dnsName
    export APISERVER_NAME=apiserver.demo
    # Kubernetes 容器组所在的网段,该网段安装完成后,由 kubernetes 创建,事先并不存在于您的物理网络中
    export POD_SUBNET=10.100.0.1/16
    echo "${MASTER_IP}    ${APISERVER_NAME}" >> /etc/hosts
    curl -sSL https://kuboard.cn/install-script/v1.19.x/init_master.sh | sh -s 1.19.5
  • 检查Master启动状态

    # 只在 master 节点执行
    
    # 执行如下命令,等待 3-10 分钟,直到所有的容器组处于 Running 状态
    watch kubectl get pod -n kube-system -o wide
    
    # 查看 master 节点初始化结果
    kubectl get nodes -o wide

Ps:如果出现NotReady的情况执行(最新版本的BUG,1.19一般没有)

docker pull quay.io/coreos/flannel:v0.10.0-amd64 
mkdir -p /etc/cni/net.d/
cat <<EOF> /etc/cni/net.d/10-flannel.conf
{"name":"cbr0","type":"flannel","delegate": {"isDefaultGateway": true}}
EOF
mkdir /usr/share/oci-umount/oci-umount.d -p
mkdir /run/flannel/
cat <<EOF> /run/flannel/subnet.env
FLANNEL_NETWORK=172.100.0.0/16
FLANNEL_SUBNET=172.100.1.0/24
FLANNEL_MTU=1450
FLANNEL_IPMASQ=true
EOF
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml

安装网络服务插件

export POD_SUBNET=10.100.0.0/16
kubectl apply -f https://kuboard.cn/install-script/v1.22.x/calico-operator.yaml
wget https://kuboard.cn/install-script/v1.22.x/calico-custom-resources.yaml
sed -i "s#192.168.0.0/16#${POD_SUBNET}#" calico-custom-resources.yaml
kubectl apply -f calico-custom-resources.yaml

初始化worker节点

  • 获取Join命令参数,在Master节点执行

    # 只在 master 节点执行
    kubeadm token create --print-join-command
    获取命令
  • 在worker节点初始化

    # 只在 worker 节点执行
    # 替换 x.x.x.x 为 master 节点的内网 IP
    export MASTER_IP=192.168.11.32
    # 替换 apiserver.demo 为初始化 master 节点时所使用的 APISERVER_NAME
    export APISERVER_NAME=apiserver.demo
    echo "${MASTER_IP}    ${APISERVER_NAME}" >> /etc/hosts
    
    # 替换为 master 节点上 kubeadm token create 命令的输出
    kubeadm join apiserver.demo:6443 --token vwfilu.3nhndohc5gn1jv9k     --discovery-token-ca-cert-hash sha256:22ff15cabfe87ab48a7db39b3bbf986fee92ec92eb8efc7fe9b0abe2175ff0c2

检查最终运行效果

  • 在 master 节点上执行

    # 只在 master 节点执行
    kubectl get nodes -o wide

Ps:如果出现NotReady的情况执行(最新版本的BUG,1.19一般没有)

docker pull quay.io/coreos/flannel:v0.10.0-amd64 
mkdir -p /etc/cni/net.d/
cat <<EOF> /etc/cni/net.d/10-flannel.conf
{"name":"cbr0","type":"flannel","delegate": {"isDefaultGateway": true}}
EOF
mkdir /usr/share/oci-umount/oci-umount.d -p
mkdir /run/flannel/
cat <<EOF> /run/flannel/subnet.env
FLANNEL_NETWORK=172.100.0.0/16
FLANNEL_SUBNET=172.100.1.0/24
FLANNEL_MTU=1450
FLANNEL_IPMASQ=true
EOF
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml
  • 输出结果如下所示:

    [root@k8smaster ~]# kubectl get nodes
    搭建成功效果

安装Kuboard管理K8s集群

  • 安装Kuboard

    kubectl apply -f https://addons.kuboard.cn/kuboard/kuboard-v3.yaml
    # 您也可以使用下面的指令,唯一的区别是,该指令使用华为云的镜像仓库替代 docker hub 分发 Kuboard 所需要的镜像
    # kubectl apply -f https://addons.kuboard.cn/kuboard/kuboard-v3-swr.yaml
  • 查看启动情况

    watch kubectl get pods -n kuboard
    查看效果
  • 在浏览器中打开链接 http://your-node-ip-address:30080

    首页
  • 输入初始用户名和密码,并登录

    • 用户名: admin
    • 密码: Kuboard123
    首页效果

10.4 Kubernetes操作

首先我们要了解Kubernetes在运行我们的资源时,关联到了哪些内容

  • 资源的构建方式:

    • 采用kubectl的命令方式
    • yaml文件方式
10.4.1 Namespace
  • 命名空间:主要是为了对Kubernetes中运行的资源进行过隔离, 但是网络是互通的,类似Docker的容器,可以将多个资源配置到一个NameSpace中。而NameSpace可以对不同环境进行资源隔离,默认情况下Kubernetes提供了default命名空间,在构建资源时,如果不指定资源,默认采用default资源。
    命令方式:

    # 查看现有的全部命名空间
    kubectl get ns
    
    # 构建命名空间
    kubectl create ns 命名空间名称
    
    # 删除现有命名空间, 并且会删除空间下的全部资源
    kubectl delete ns 命名空间名称

    yaml文件方式:(构建资源时,设置命名空间)

    apiVersion: v1
    kind: Namespace
    metadata:
      name: test
10.4.2 Pod
  • Pod:Kubernetes运行的一组容器,Pod是Kubernetes的最小单位,但是对于Docker而然,Pod中会运行多个Docker容器

    • 命令方式:

      # 查看所有运行的pod
      kubectl get pods -A
      
      # 查看指定Namespace下的Pod
      kubectl get pod [-n 命名空间]  #(默认default)
      
      # 创建Pod
      kubectl run pod名称 --image=镜像名称
      
      # 查看Pod详细信息
      kubectl describe pod pod名称
      
      # 删除pod
      kubectl delete pod pod名称 [-n 命名空间]  #(默认default)
      
      # 查看pod输出的日志
      kubectl logs -f pod名称
      
      # 进去pod容器内部
      kubectl exec -it pod名称 -- bash
      
      # 查看kubernetes给Pod分配的ip信息,并且通过ip和容器的端口,可以直接访问
      kubectl get pod -owide
    • yaml方式(推荐)

      apiVersion: v1
      kind: Pod
      metadata:
        labels:
          run: 运行的pod名称
        name: pod名称
        namespace: 命名空间
      spec:
        containers:
        - image: 镜像名称
          name: 容器名称
      
      # 启动Pod:kubectl apply -f yaml文件名称
      # 删除Pod:kubectl delete -f yaml文件名称
    • Pod中运行多个容器

      apiVersion: v1
      kind: Pod
      metadata:
        labels:
          run: 运行的pod名称
        name: pod名称
        namespace: 命名空间
      spec:
        containers:
        - image: 镜像名称
          name: 容器名称
        - image: 镜像名称
          name: 容器名称
      …………    

      启动后可以查看到

      Kuboard效果
10.4.3 Deployment

部署时,可以通过Deployment管理和编排Pod

Deployment部署实现

  • 命令方式

    # 基于Deployment启动容器
    kubectl create deployment deployment名称 --image=镜像名称
    # 用deployment启动的容器会在被删除后自动再次创建,达到故障漂移的效果
    # 需要使用deploy的方式删除deploy
    # 查看现在的deployment
    kubectl get deployment
    
    # 删除deployment
    kubectl delete deployment deployment名称
    
    # 基于Deployment启动容器并设置Pod集群数
    kubectl create deployment deployment名称 --image=镜像名称 --replicas 集群个数
  • 配置文件方式

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nginx-deployment
      labels:
        app: nginx
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - name: nginx
           image: nginx
           ports:
           - containerPort: 80

    正常使用kubectl运行yaml即可

弹性伸缩功能

# 基于scale实现弹性伸缩
kubectl scale deploy/Deployment名称 --replicas 集群个数
# 或者修改yaml文件
kubectl edit deploy Deployment名称
图形化页面修改

灰度发布

Deploy可以在部署新版本数据时,成功启动一个pod,才会下线一个老版本的Pod

kubectl set image deployment/Deployment名称 容器名=镜像:版本
10.4.4 Service

可以将多个Pod对外暴露一个Service,让客户端可以通过Service访问到这一组Pod,并且可以实现负载均衡

ClusterIP方式:

ClusterIP是集群内部Pod之间的访问方式

  • 命令实现效果

    # 通过生成service映射一个Deployment下的所有pod中的某一个端口的容器
    kubectl expose deployment Deployment名称 --port=Service端口号 --target-port=Pod内容器端口

    之后通过kubectl get service查看Service提供的ip,即可访问

    kubectl get service

    也可以通过Deployment名称.namespace名称.svc作为域名访问

    在服务容器内执行

NodePort方式

ClusterIP的方式只能在Pod内部实现访问,但是一般需要对外暴露网关,所以需要NodePort的方式Pod外暴露访问

  • 命令实现方式

    # 通过生成service映射一个Deployment下的所有pod中的某一个端口的容器
    kubectl expose deployment Deployment名称 --port=Service端口号 --target-port=Pod内容器端口 --type=NodePort
    查看Service效果

Service也可以通过yaml文件实现

apiVersion: v1
kind: Service
metadata:
  labels
    app: nginx
  name: nginx
  spec:
    selector:
      app: nginx
    ports:
    - port: 8888
     protocol: TCP
     targetPort: 80

通过apply启动就也可以创建Service

测试效果-Deployment部署,通过Service暴露

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
  labels:
    app: nginx-deployment
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx-deployment
  template:
    metadata:
      labels:
        app: nginx-deployment
    spec:
      containers:
      - name: nginx-deployment
        image: nginx
        ports:
        - containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: nginx-service
  name: nginx-service
spec:
  selector:
    app: nginx-deployment
  ports:
  - port: 8888
    protocol: TCP
    targetPort: 80
  type: NodePort

可以查看到暴露的信息

Service信息
10.4.5 Ingress

Kubernetes推荐将Ingress作为所有Service的入口,提供统一的入口,避免多个服务之间需要记录大量的IP或者域名,毕竟IP可能改变,服务太多域名记录不方便。

Ingress底层其实就是一个Nginx, 可以在Kuboard上直接点击安装

Kuboard安装

因为副本数默认为1,但是k8s整体集群就2个节点,所以显示下面即为安装成功

安装成功

可以将Ingress接收到的请求转发到不同的Service中。

推荐使用yaml文件方式

apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: nginx-ingress
spec:
  ingressClassName: ingress
  rules:
  - host: nginx.mashibing.com
    http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: nginx-service
            port:
              number: 8888
启动时问题

Kuboard安装的Ingress有admission的校验配置,需要先删除配置再启动

找到指定的ingress的校验信息,删除即可

删除信息
# 查看校验webhook的配置
kubectl get -A ValidatingWebhookConfiguration

# 删除指定的校验
kubectl delete ValidatingWebhookConfiguration ingress-nginx-admission-my-ingress-controller

配置本地hosts文件

配置hosts

记下来既可以访问在Service中暴露的Nginx信息

服通过Ingress访问

10.5 Jenkins集成Kubernetes

10.5.1 准备部署的yml文件
apiVersion: apps/v1
kind: Deployment
metadata:
  namespace: test
  name: pipeline
  labels:
    app: pipeline
spec:
  replicas: 2
  selector:
    matchLabels:
      app: pipeline
  template:
    metadata:
      labels:
        app: pipeline    
    spec:
      containers:
      - name: pipeline
        image: 192.168.11.102:80/repo/pipeline:v4.0.0
        imagePullPolicy: Always
        ports:
        - containerPort: 8080
---
apiVersion: v1
kind: Service
metadata:
  namespace: test
  labels:
    app: pipeline
  name: pipeline  
spec:
  selector:
    app: pipeline
  ports:
  - port: 8081
    targetPort: 8080
  type: NodePort
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  namespace: test
  name: pipeline
spec:
  ingressClassName: ingress
  rules:
  - host: mashibing.pipeline.com
    http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: pipeline
            port:
              number: 8081
10.5.2 Harbor私服配置

在尝试用kubernetes的yml文件启动pipeline服务时,会出现Kubernetes无法拉取镜像的问题,这里需要在kubernetes所在的Linux中配置Harbor服务信息,并且保证Kubernetes可以拉取Harbor上的镜像

  • 设置Master和Worker的私服地址信息

    设置Harbor私服地址
  • 在Kuboard上设置私服密文信息

    设置密文并测试

    按照复制指令的位置测试认证,效果如下

    测试效果
10.5.3 测试使用效果

执行kubectl命令,基于yml启动服务,并且基于部署后服务的提示信息以及Ingress的设置,直接访问

1642499788199
10.5.3 Jenkins远程调用
  • 将pipeline.yml配置到Gitlab中

    配置yml文件
  • 配置Jenkins的目标服务器,可以将yml文件传输到K8s的Master上

    设置目标服务器
  • 修改Jenkinsfile,重新设置流水线任务脚本,并测试效果

    传递yml文件脚本
  • 设置Jenkins无密码登录k8s-master

    将Jenkins中公钥信息复制到k8s-master的~/.ssh/authorized_keysz中,保证远程连接无密码

    远程执行命令无需密码
  • 设置执行kubectl的脚本到Jenkinsfile

    设置Jenkinsfile
  • 执行查看效果

    执行流水线

    可以查看到yml文件是由变化的, 这样k8s就会重新加载

  • 查看效果

    效果

Ps:这种方式更适应与CD操作,将项目将基于某个版本部署到指定的目标服务器

10.6 基于GitLab的WebHooks

这里要实现自动化的一个CI操作,也就是开发人员Push代码到Git仓库后,Jenkins会自动的构建项目,将最新的提交点代码构建并进行打包部署,这里区别去上述的CD操作,CD操作需要基于某个版本进行部署,而这里每次都是将最新的提交点集成到主干上并测试。

10.6.1 WebHooks通知

开启Jenkins的自动构建

构建触发器

设置Gitlab的Webhooks

设置Gitlab的Webhooks

需要关闭Jenkins的Gitlab认证

关闭Jenkins的Gitlab认证

再次测试Gitlab

再次测试
10.6.2 修改配置

修改Jenkinsfile实现基于最新提交点实现持续集成效果,将之前引用${tag}的全部去掉

// 所有的脚本命令都放在pipeline中
pipeline{
	// 指定任务再哪个集群节点中执行
	agent any

	// 声明全局变量,方便后面使用
	environment {
		harborUser = 'admin'
        harborPasswd = 'Harbor12345'
        harborAddress = '192.168.11.102:80'
        harborRepo = 'repo'
	}

    stages {
        stage('拉取git仓库代码') {
            steps {
                checkout([$class: 'GitSCM', branches: [[name: '*/master']], extensions: [], userRemoteConfigs: [[url: 'http://192.168.11.101:8929/root/mytest.git']]])
            }
        }
        stage('通过maven构建项目') {
            steps {
                sh '/var/jenkins_home/maven/bin/mvn clean package -DskipTests'
            }
        }
        stage('通过SonarQube做代码质量检测') {
            steps {
                sh '/var/jenkins_home/sonar-scanner/bin/sonar-scanner -Dsonar.source=./ -Dsonar.projectname=${JOB_NAME} -Dsonar.projectKey=${JOB_NAME} -Dsonar.java.binaries=./target/ -Dsonar.login=40306ae8ea69a4792df2ceb4d9d25fe8a6ab1701'
            }
        }
        stage('通过Docker制作自定义镜像') {
            steps {
                sh '''mv ./target/*.jar ./docker/
                docker build -t ${JOB_NAME}:latest ./docker/'''
            }
        }
        stage('将自定义镜像推送到Harbor') {
            steps {
                sh '''docker login -u ${harborUser} -p ${harborPasswd} ${harborAddress}
                docker tag ${JOB_NAME}:latest  ${harborAddress}/${harborRepo}/${JOB_NAME}:latest
                docker push ${harborAddress}/${harborRepo}/${JOB_NAME}:latest '''
            }
        }
        stage('将yml文件传到k8s-master上') {
            steps {
                sshPublisher(publishers: [sshPublisherDesc(configName: 'k8s', transfers: [sshTransfer(cleanRemote: false, excludes: '', execCommand: '', execTimeout: 120000, flatten: false, makeEmptyDirs: false, noDefaultExcludes: false, patternSeparator: '[, ]+', remoteDirectory: '', remoteDirectorySDF: false, removePrefix: '', sourceFiles: 'pipeline.yml')], usePromotionTimestamp: false, useWorkspaceInPromotion: false, verbose: false)])
            }
        }
        stage('远程执行k8s-master的kubectl命令') {
            steps {
               sh '''ssh root@192.168.11.201 kubectl apply -f /usr/local/k8s/pipeline.yml
                ssh root@192.168.11.201 kubectl rollout restart deployment pipeline -n test'''
            }
        }

    }
    post {
        success {
            dingtalk(
                robot: 'Jenkins-DingDing',
                type: 'MARKDOWN',
                title: "success: ${JOB_NAME}",
                text: ["- 成功构建:${JOB_NAME}! \n- 版本:latest \n- 持续时间:${currentBuild.durationString}" ]
            )
        }
        failure {
            dingtalk(
                robot: 'Jenkins-DingDing',
                type: 'MARKDOWN',
                title: "success: ${JOB_NAME}",
                text: ["- 构建失败:${JOB_NAME}! \n- 版本:latest \n- 持续时间:${currentBuild.durationString}" ]
            )
        }
    }
}

修改pipeline.yml,更改镜像版本

apiVersion: apps/v1
kind: Deployment
metadata:
  namespace: test
  name: pipeline
  labels:
    app: pipeline
spec:
  replicas: 2
  selector:
    matchLabels:
      app: pipeline
  template:
    metadata:
      labels:
        app: pipeline    
    spec:
      containers:
      - name: pipeline
        image: 192.168.11.102:80/repo/pipeline:latest   # 这里
        imagePullPolicy: Always
        ports:
        - containerPort: 8080
# 省略其他内容…………
10.6.3 滚动更新

因为pipeline没有改变时,每次不会重新加载,这样会导致Pod中的容器不会动态更新,这里需要使用kubectl的rollout restart命令滚动更新

设置Jenkinsfle

文章作者: 千羽
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 千羽 !
评论
  目录