摘要:下載在這里下載修改替換鏡像修改添加,同時(shí)把由改為。因?yàn)榈母械牡臎_突了。修改新增的暴露出來(lái),同時(shí)添加創(chuàng)建配置修改下數(shù)據(jù)源的查看數(shù)據(jù)總結(jié)部署詳解監(jiān)控
下載yaml
在這里下載deploy/kube-config/influxdb
修改yaml替換鏡像
gcr.io/google_containers/heapster-grafana:v4.0.2 registry.cn-hangzhou.aliyuncs.com/kube_containers/heapster_grafana gcr.io/google_containers/heapster-influxdb:v1.1.1 registry.cn-hangzhou.aliyuncs.com/kube_containers/heapster_influxdb gcr.io/google_containers/heapster:v1.3.0-beta.0 registry.cn-hangzhou.aliyuncs.com/wayne/heapster:v1.1.0
修改grafana-service.yaml
添加external ip,同時(shí)把port由80改為3000。因?yàn)?0的port跟heapster-service.yaml中的80的port沖突了。
apiVersion: v1 kind: Service metadata: labels: # For use as a Cluster add-on (https://github.com/kubernetes/kubernetes/tree/master/cluster/addons) # If you are NOT using this as an addon, you should comment out this line. kubernetes.io/cluster-service: "true" kubernetes.io/name: monitoring-grafana name: monitoring-grafana namespace: kube-system spec: # In a production setup, we recommend accessing Grafana through an external Loadbalancer # or through a public IP. # type: LoadBalancer # You could also use NodePort to expose the service at a randomly-generated port # type: NodePort ports: - port: 3000 targetPort: 3000 selector: k8s-app: grafana externalIPs: - 192.168.99.101
修改influxdb-service.yaml
新增8083的port暴露出來(lái),同時(shí)添加external ip
apiVersion: v1 kind: Service metadata: labels: task: monitoring # For use as a Cluster add-on (https://github.com/kubernetes/kubernetes/tree/master/cluster/addons) # If you are NOT using this as an addon, you should comment out this line. kubernetes.io/cluster-service: "true" kubernetes.io/name: monitoring-influxdb name: monitoring-influxdb namespace: kube-system spec: ports: - name: http port: 8083 targetPort: 8083 - name: api port: 8086 targetPort: 8086 selector: k8s-app: influxdb externalIPs: - 192.168.99.101創(chuàng)建
kubectl create -f deploy/kube-config/influxdb/配置grafana
http://192.168.99.101:3000/
修改下k8s數(shù)據(jù)源的url
查看數(shù)據(jù)
docRun Heapster in a Kubernetes cluster with an InfluxDB backend and a Grafana UI
<總結(jié)> 部署 Kubernetes+Heapster+InfluxDB+Grafana 詳解
Kubernetes監(jiān)控——Heapster+InfluxDB+Grafana
heapster-yaml
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/32543.html
摘要:在每個(gè)上都會(huì)運(yùn)行,它會(huì)收集本機(jī)以及容器的監(jiān)控?cái)?shù)據(jù)。使用這里主要介紹的使用,及可獲取的。參考資料文檔文檔及可用在官方文檔中都介紹的比較齊全。我們沒(méi)有采用該方式,是考慮到如果和監(jiān)控系統(tǒng)相互依賴,會(huì)導(dǎo)致異常之后,存在監(jiān)控系統(tǒng)無(wú)法使用的隱患。 什么是Heapster? Heapster是容器集群監(jiān)控和性能分析工具,天然的支持Kubernetes和CoreOS。Kubernetes有個(gè)出名的監(jiān)控...
摘要:?jiǎn)栴}安裝過(guò)程中部分鏡像需要從的鏡像倉(cāng)庫(kù)拉取但是國(guó)內(nèi)無(wú)法訪問(wèn)其鏡像倉(cāng)庫(kù)故需要手動(dòng)獲取鏡像再自行安裝從官方提供的倉(cāng)庫(kù)獲取不是使用的宿主機(jī)器的進(jìn)程故不能簡(jiǎn)單的把自己獲取的鏡像重新來(lái)完成安裝需要導(dǎo)出之后然后使用提供的鏡像管理功能進(jìn)行導(dǎo)入解決原理獲取 問(wèn)題 microk8s安裝過(guò)程中,部分鏡像需要從google的鏡像倉(cāng)庫(kù)拉取,但是國(guó)內(nèi)無(wú)法訪問(wèn)其鏡像倉(cāng)庫(kù), 故需要手動(dòng)獲取鏡像再自行安裝(從官方提...
摘要:?jiǎn)栴}安裝過(guò)程中部分鏡像需要從的鏡像倉(cāng)庫(kù)拉取但是國(guó)內(nèi)無(wú)法訪問(wèn)其鏡像倉(cāng)庫(kù)故需要手動(dòng)獲取鏡像再自行安裝從官方提供的倉(cāng)庫(kù)獲取不是使用的宿主機(jī)器的進(jìn)程故不能簡(jiǎn)單的把自己獲取的鏡像重新來(lái)完成安裝需要導(dǎo)出之后然后使用提供的鏡像管理功能進(jìn)行導(dǎo)入解決原理獲取 問(wèn)題 microk8s安裝過(guò)程中,部分鏡像需要從google的鏡像倉(cāng)庫(kù)拉取,但是國(guó)內(nèi)無(wú)法訪問(wèn)其鏡像倉(cāng)庫(kù), 故需要手動(dòng)獲取鏡像再自行安裝(從官方提...
摘要:?jiǎn)栴}安裝過(guò)程中部分鏡像需要從的鏡像倉(cāng)庫(kù)拉取但是國(guó)內(nèi)無(wú)法訪問(wèn)其鏡像倉(cāng)庫(kù)故需要手動(dòng)獲取鏡像再自行安裝從官方提供的倉(cāng)庫(kù)獲取不是使用的宿主機(jī)器的進(jìn)程故不能簡(jiǎn)單的把自己獲取的鏡像重新來(lái)完成安裝需要導(dǎo)出之后然后使用提供的鏡像管理功能進(jìn)行導(dǎo)入解決原理獲取 問(wèn)題 microk8s安裝過(guò)程中,部分鏡像需要從google的鏡像倉(cāng)庫(kù)拉取,但是國(guó)內(nèi)無(wú)法訪問(wèn)其鏡像倉(cāng)庫(kù), 故需要手動(dòng)獲取鏡像再自行安裝(從官方提...
摘要:?jiǎn)栴}是不是定義的一個(gè)的容器集群是只部署在同一個(gè)主機(jī)上楊樂(lè)到目前是,同一個(gè)里的是部署在同一臺(tái)主機(jī)的。問(wèn)題這個(gè)圖里的是安裝在哪里的所有的客戶端以及會(huì)連接這個(gè)嘛楊樂(lè)可以任意地方,只要能訪問(wèn)到集群,會(huì)作為的出口。 kubernetes1.0剛剛發(fā)布,開源社區(qū)400多位貢獻(xiàn)者一年的努力,多達(dá)14000多次的代碼提交,最終達(dá)到了之前預(yù)計(jì)的milestone, 并意味著這個(gè)開源容器編排系統(tǒng)可以正式在...
閱讀 2488·2021-09-22 16:05
閱讀 2978·2021-09-10 11:24
閱讀 3647·2019-08-30 12:47
閱讀 2952·2019-08-29 15:42
閱讀 3393·2019-08-29 15:32
閱讀 1979·2019-08-26 11:48
閱讀 1096·2019-08-23 14:40
閱讀 908·2019-08-23 14:33