• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            Fork me on GitHub
            隨筆 - 215  文章 - 13  trackbacks - 0
            <2017年11月>
            2930311234
            567891011
            12131415161718
            19202122232425
            262728293012
            3456789


            專注即時通訊及網游服務端編程
            ------------------------------------
            Openresty 官方模塊
            Openresty 標準模塊(Opm)
            Openresty 三方模塊
            ------------------------------------
            本博收藏大部分文章為轉載,并在文章開頭給出了原文出處,如有再轉,敬請保留相關信息,這是大家對原創作者勞動成果的自覺尊重!!如為您帶來不便,請于本博下留言,謝謝配合。

            常用鏈接

            留言簿(1)

            隨筆分類

            隨筆檔案

            相冊

            Awesome

            Blog

            Book

            GitHub

            Link

            搜索

            •  

            積分與排名

            • 積分 - 219198
            • 排名 - 117

            最新評論

            閱讀排行榜

            Kubernets搭建Kubernetes-dashboard

              接上篇文章,在已經部署好Kubernetes的基礎上部署kubernetes-dashboard,它是官方提供的用戶管理Kubernets集群可視化工具;部署dashboard其實和在kubernets部署其他的應用一樣,創建dashboard所需的Replication Controller、Service服務即可;
              注意Kubernets的Overlay Network要正常工作,每個節點都已經啟動Flannel,并且docker啟動時配置了Flannel提供的子網,或使用其他方式保證Container之間的連通,否則dashboard將無法正常工作;

            Namespace

              使用默認的Namespace也是可以得,因為dashboard算是屬于系統應用所以這里使用Namespace把dashboard與其他App進行隔離,建議線上正式的Kubernetes環境都要使用Namespace;
              創建kube-namespace.yaml文件,內容如下:

            apiVersion: v1  
            kind: Namespace  
            metadata:  
            name: kube-system

            Replication Controller

              Replication Controller用于保證pod期望狀態與當前狀態一致,還可對pod數量彈性伸縮,這里主要是保證dashboard的正常運行;
              創建kube-dashboard-rc.yaml文件:內容如下:

            apiVersion: v1
            kind: ReplicationController
            metadata:
            # Keep the name in sync with image version and
            # gce/coreos/kube-manifests/addons/dashboard counterparts
            name: kubernetes-dashboard-latest
            namespace: kube-system
            labels:
              k8s-app: kubernetes-dashboard
            version: latest
            kubernetes.io/cluster-service: "true"
            spec:
              replicas: 1
            selector:
              k8s-app: kubernetes-dashboard
            template:
              metadata:
                labels:
                  k8s-app: kubernetes-dashboard
                  version: latest
                  kubernetes.io/cluster-service: "true"
              spec:
                containers:
                - name: kubernetes-dashboard
                  image: 192.168.2.144:5000/kkubernetes-dashboard-amd64
                  resources:
                    # keep request = limit to keep this container in guaranteed class
                    limits:
                      cpu: 100m
                      memory: 50Mi
                    requests:
                      cpu: 100m
                      memory: 50Mi
                  ports:
                  - containerPort: 9090
                  args:
                   -  --apiserver-host=http://192.168.2.143:8080
                  livenessProbe:
                    httpGet:
                      path: /
                      port: 9090
                    initialDelaySeconds: 30
                    timeoutSeconds: 30  

              由于kubernetes-dashboard-amd64如要被墻,這里下了index.alauda.cn/googlecontainer/kubernetes-dashboard-amd64放在本地私有倉庫,使用了本地私有長褲鏡像庫kubernetes-dashboard-amd64;還要注意別忘了配置apiserver-host否則dashboard將無法連接到kubernets集群;

            Service

              service用于配置dashboard的label selector;
              創建kube-dashboard-svc.yaml文件,內容如下:

            apiVersion: v1
            kind: Service
            metadata:
              name: kubernetes-dashboard
              namespace: kube-system
              labels:
                k8s-app: kubernetes-dashboard
                kubernetes.io/cluster-service: "true"
            spec:
              selector:
                k8s-app: kubernetes-dashboard
              ports:
              - port: 80
                targetPort: 9090  

            kubernates中創建dashboard應用

              1、創建namespace

            kubectl -s 192.168.2.143:8080 create -f namespace.yaml  

              2、創建replication Controller

            kubectl -s 192.168.2.143:8080 create -f kube-dashboard-rc.yaml

              3、創建service

            kubectl -s 192.168.2.143:8080 create -f kube-dashboard-svc.yaml  

              查看dashboard啟動情況

            圖片

              Kubernetes dashboard訪問地址:http://192.168.2.143:8080/ui,注意這里的地址是master節點的地址;

            圖片

            參考資料:
            http://kubernetes.io/docs/user-guide/

            posted on 2016-10-09 09:35 思月行云 閱讀(1740) 評論(0)  編輯 收藏 引用 所屬分類: Docker\K8s
            97久久精品人妻人人搡人人玩| 久久精品国产久精国产思思| 久久婷婷五月综合97色直播| 久久综合视频网站| 五月丁香综合激情六月久久| 亚洲午夜精品久久久久久人妖| 国内精品久久久久久久coent| 久久久久人妻一区二区三区| 久久精品国产亚洲沈樵| 精品久久久久成人码免费动漫| 亚洲va国产va天堂va久久| 精品久久久久久无码中文字幕| 亚洲中文字幕无码久久2020| 久久天天躁狠狠躁夜夜2020老熟妇 | av色综合久久天堂av色综合在| 亚洲国产欧美国产综合久久| 精品熟女少妇aⅴ免费久久| 中文字幕久久精品无码| 精品久久国产一区二区三区香蕉| 人人狠狠综合久久88成人| 色狠狠久久综合网| 99久久精品国产毛片| 欧美牲交A欧牲交aⅴ久久| 久久亚洲国产成人影院网站| 久久被窝电影亚洲爽爽爽| 97久久国产综合精品女不卡| 精品久久人妻av中文字幕| 久久人妻少妇嫩草AV蜜桃| 久久久精品国产| 久久国产劲爆AV内射—百度| 久久综合亚洲色HEZYO社区| 伊人久久大香线蕉AV一区二区| 久久国产视频99电影| 久久国产福利免费| 欧美久久综合九色综合| 久久国产精品免费一区| 青青草原综合久久大伊人导航| 久久精品中文字幕有码| 亚洲欧洲中文日韩久久AV乱码| 久久笫一福利免费导航 | 天天爽天天狠久久久综合麻豆|