目录

Byconity on Kubesphere

基于 KubeSphere 搭建生产级云原生数仓 ByConity

什么是 KubeSphere

KubeSphere 是在 Kubernetes 之上构建的面向云原生应用的分布式操作系统,完全开源,支持多云与多集群管理,提供全栈的 IT 自动化运维能力,简化企业的 DevOps 工作流。它的架构可以非常方便地使第三方应用与云原生生态组件进行即插即用 (plug-and-play) 的集成。

什么是 ByConity

ByConity 是分布式的云原生SQL数仓引擎,擅长交互式查询和即席查询,具有支持多表关联复杂查询、集群扩容无感、离线批数据和实时数据流统一汇总等特点。

前言

知识点

  • 定级:入门级
  • 如何基于 KubeSphere 搭建多节点的 k8s 集群
  • 如何配置 OpenEBS 或者 juiceFS 存储
  • 如何部署 ByConity

服务器配置

主机名 IP CPU 内存 系统盘 数据盘 用途
master1 10.101.32.13 4 8 50 100 KubeSphere/k8s-master
node1 10.101.32.14 4 8 50 100 k8s-worker
node2 10.101.32.15 4 8 50 100 k8s-worker
node3 10.101.32.16 4 8 50 100 k8s-worker
node4 10.101.32.17 4 8 50 100 k8s-worker

环境涉及软件版本信息

  • 操作系统:CentOS 7.9.2009 (Core) 3.10.0-1160.15.2.el7.x86_64

  • KubeSphere:3.3.0

  • ByConity: 0.1.0-GA

  • Kubernetes:v1.23.7

  • Docker:20.10.8

  • JuiceFS:v1.0.4

  • KubeKey: v2.2.1

环境准备

1. K8s 环境

我这里主要推荐 kubesphere 来部署 k8s 环境。为啥呢?

安装简单,得益于简单三步就可以部署一个高可用的 k8s 环境。

  • 下载 KubeKey
1
2
export KKZONE=cn
curl -sfL https://get-kk.kubesphere.io | VERSION=v3.0.2 sh -
  • 创建并配置集群文件
1
./kk create config config.yaml

编辑 config.yaml ,添加节点的 IP 、用户名、密码,并指定节点的角色

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809184804017.png

  • 创建集群

    1
    
    ./kk create cluster -f config.yaml
    

以上步骤有问题可以参考 kubesphere 官方文档

还有一个原因就是,颜值高,有非常丰富的生态工具。

KubeSphere 围绕 Kubernetes 集成了多个云原生生态主流的开源软件,同时支持对接大部分流行的第三方组件,从应用和应用生命周期管理到集群底层的运行时,将这些开源项目作为其后端组件,通过标准的 API 与 KubeSphere 控制台交互,最终在一个统一的控制台界面提供一致的用户体验,以降低对不同工具的学习成本和复杂性。

这对于 ByConity 这样一个中间件服务来说,简直是巨大福音。可以灵活配置底层的存储组建(如:ceph,OpenEBS,JuiceFS),也可以方便配置上层监控运维可视化服务(如:Prometheus,Kafka,Superset,Tableau等)。

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/kubesphere-ecosystem.png

2、配置存储

kubesphere 的集群安装好之后,默认有一个 local 的 storageClass

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809190322941.png

需要 将 chart 包 中 value.yaml所有 的 storageClassName 由 openebs-hostpath 替换成 local

当然 如果你没有 默认的 storageClass,可以自己部署存储 OpenEBS 或者 利用 KubeSphere 丰富的生态部署 JuiceFS 。

OpenEBS 部署步骤

  • 安装命令,kubectl 或者 helm

    1
    2
    3
    4
    5
    
    kubectl apply -f https://openebs.github.io/charts/openebs-operator.yaml
    
    helm repo add openebs https://openebs.github.io/charts
    helm repo update
    helm install --namespace openebs --name openebs openebs/openebs
    
  • 创建 StorageClass

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    
    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: local-hostpath
      annotations:
        openebs.io/cas-type: local
        cas.openebs.io/config: |
          - name: StorageType
            value: hostpath
          - name: BasePath
            value: /var/local-hostpath      
    provisioner: openebs.io/local
    reclaimPolicy: Delete
    volumeBindingMode: WaitForFirstConsumer
    
  • 安装验证

    1
    2
    3
    
    kubectl get pods -n openebs -l openebs.io/component-name=openebs-localpv-provisioner
    
    kubectl get sc
    

详细步骤,请参考 OpenEBS 官方文档

在 KubeSphere 上使用 JuiceFS

  • 安装 JuiceFS CSI Driver

    如果 KubeSphere 的版本为 v3.2.0 及以上,可以直接在应用商店中安装 CSI Driver。

  • 使用

    安装好的 JuiceFS CSI Driver 已经创建好一个 StorageClass,名为上述 storageClassname,比如上述创建的 StorageClassjuicefs-sc,可以直接使用。

详细步骤,请参考在 KubeSphere 上使用 JuiceFS

环境部署

有了 k8s 集群,现在要做的是就是 利用 helm 来部署 ByConity 了。

因为上一个步骤中,部署 kubesphere 过程中,会自动给你安装一个 helm ,所以这一步就不用安装 helm 了,如果你是用 kind 或者其他方式部署的 k8s ,记得手动安装 helm

第零步 下载 chart 包

1
2
git clone https://github.com/ByConity/byconity-deploy.git
cd byconity-deploy

第一步 部署 fdb-operator

1
helm upgrade --install --create-namespace --namespace byconity -f ./examples/k8s/values.yaml byconity ./chart/byconity --set fdb.enabled=false

byconity-fdb-operator running 后开启第二步操作

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809173246296.png

第二步 部署服务

1
helm upgrade --install --create-namespace --namespace byconity -f ./examples/k8s/values.yaml byconity ./chart/byconity 

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809182438437.png

看到 pod 都 running 起来,说明就部署成功了,我们进去 byconity-server 里面试试功能。

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809182954602.png

在 KubeSphere 管理控制台验证

截几张图看一看 ByConity 相关资源在 KubeSphere 管理控制台中展示效果。

  • Deployment (byconity-fdb-operator)

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809185123419.png

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811103931981.png

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811103850482.png

  • StatefulSet (byconity-hdfs-datanode)

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230809185206530.png

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811104120912.png

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811104144012.png

  • Pods (byconity-server-0)

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811104912902.png

https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811105637869.png

  • Service (byconity-server)

    https://zhuyaguang-1308110266.cos.ap-shanghai.myqcloud.com/img/image-20230811110141674.png

总结

布署工具的使用感受&评价

整个过程整体还是比较顺利的,有几个地方需要注意下

  • 手动拉取镜像

    fdb-operator pod 要 running 的话,依赖 4 个镜像,所以一直没有起来,需要到其对应节点,手动拉取。

1
2
3
4
5
6
7
8
9
docker pull foundationdb/foundationdb-kubernetes-sidecar:6.2.30-1

docker pull foundationdb/foundationdb-kubernetes-sidecar:6.3.23-1

docker pull foundationdb/foundationdb-kubernetes-sidecar:7.1.15-1

docker pull foundationdb/fdb-kubernetes-operator:v1.9.0

docker pull byconity/byconity:0.1.0-GA
  • 手动清理 PVC

    在 配置存储 步骤中,如果你 忘记 一两个 替换 storageClass ,需要你卸载 ByConity

    1
    
    helm uninstall --namespace byconity byconity
    

    同时要清理 错误的 PVC

    1
    
    kubectl delete pvc {pvcname} -n byconity
    

发现的问题

部署过程中,发现 byconity-server-0 健康检查一直失败。根据日志 发现是 ipv6 的支持问题,将 :: 改成 0.0.0.0 就可以了。

issue地址 :https://github.com/ByConity/ByConity/issues/593