成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專(zhuān)欄INFORMATION COLUMN

ceph集群安裝及使用

IT那活兒 / 1292人閱讀
ceph集群安裝及使用




簡(jiǎn)介




Ceph是一個(gè)統(tǒng)一的分布式存儲(chǔ)系統(tǒng),設(shè)計(jì)初衷是提供較好的性能、可靠性和可擴(kuò)展性。

Ceph項(xiàng)目最早起源于Sage就讀博士期間的工作(最早的成果于2004年發(fā)表),并隨后貢獻(xiàn)給開(kāi)源社區(qū)。在經(jīng)過(guò)了數(shù)年的發(fā)展之后,目前已得到眾多云計(jì)算廠商的支持并被廣泛應(yīng)用。RedHat及OpenStack都可與Ceph整合以支持虛擬機(jī)鏡像的后端存儲(chǔ)。

Ceph能夠在一個(gè)統(tǒng)一的系統(tǒng)中提供對(duì)象,塊和文件存儲(chǔ)。


 


Ceph特點(diǎn)




1. 高性能

  • 摒棄了傳統(tǒng)的集中式存儲(chǔ)元數(shù)據(jù)尋址的方案,采用CRUSH算法,數(shù)據(jù)分布均衡,并行度高。
  • 考慮了容災(zāi)域的隔離,能夠?qū)崿F(xiàn)各類(lèi)負(fù)載的副本放置規(guī)則,例如跨機(jī)房、機(jī)架感知等。
  • 能夠支持上千個(gè)存儲(chǔ)節(jié)點(diǎn)的規(guī)模,支持TB到PB級(jí)的數(shù)據(jù)。


2. 高可用性

  •  副本數(shù)可以靈活控制。
  • 支持故障域分隔,數(shù)據(jù)強(qiáng)一致性。
  • 多種故障場(chǎng)景自動(dòng)進(jìn)行修復(fù)自愈。
  • 沒(méi)有單點(diǎn)故障,自動(dòng)管理。

3. 高可擴(kuò)展性

  • 去中心化。

  • 擴(kuò)展靈活。

  • 隨著節(jié)點(diǎn)增加而線性增長(zhǎng)。

4. 特性豐富

  • 支持三種存儲(chǔ)接口:塊存儲(chǔ)、文件存儲(chǔ)、對(duì)象存儲(chǔ)。
  • 支持自定義接口,支持多種語(yǔ)言驅(qū)動(dòng)




Ceph安裝部署




1. 操作系統(tǒng)配置

1)每臺(tái)節(jié)點(diǎn)都需要修改主機(jī)名

本例三臺(tái)主機(jī)分別為ceph01、ceph02、ceph03.

hostnamectl set-hostname ceph01
hostnamectl set-hostname ceph02
hostnamectl set-hostname ceph03

每臺(tái)/etc/hosts新增如下內(nèi)容

133.xxx.xxx.108  ceph01
133.xxx.xxx.109  ceph02
133.xxx.xxx.110  ceph03

2)每臺(tái)安裝ntp服務(wù) 時(shí)鐘服務(wù),并同步時(shí)鐘

yum install ntp –y
vi /etc/ntp.conf

3)每臺(tái)配置ssh 免密登陸認(rèn)證

ssh-keygen -t rsa
ssh-copy-id ceph01
ssh-copy-id ceph02
ssh-copy-id ceph03

4)每個(gè)節(jié)點(diǎn)添加 6塊個(gè)900G的硬盤(pán)


2. ceph安裝

1)每個(gè)節(jié)點(diǎn)都做ceph 的yum添加


ceph.repo
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/x86_64/
gpgcheck=0
priority =1
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch/
gpgcheck=0
priority =1
[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/SRPMS
gpgcheck=0
priority=1
epel.repo
[epel]
name=Extra Packages for Enterprise Linux 7 - $basearch
baseurl=http://mirrors.aliyun.com/epel/7/$basearch
failovermethod=priority
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 
[epel-debuginfo]
name=Extra Packages for Enterprise Linux 7 - $basearch - Debug
baseurl=http://mirrors.aliyun.com/epel/7/$basearch/debug
failovermethod=priority
enabled=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7
gpgcheck=0 
[epel-source]
name=Extra Packages for Enterprise Linux 7 - $basearch - Source
baseurl=http://mirrors.aliyun.com/epel/7/SRPMS
failovermethod=priority
enabled=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7
gpgcheck=0
2)ceph03節(jié)點(diǎn)安裝ceph-deploy安裝組件

【備注:ceph可以在每個(gè)節(jié)點(diǎn)分別執(zhí)行yum install ceph*進(jìn)行安裝,也可以方便的使用ceph-deploy安裝工具進(jìn)行安裝,本例采用方法2】.

[root@ceph03 ~]# yum install -y ceph-deploy


3)使用安裝工具安裝ceph組件


[root@ceph03 ~]# ceph-deploy new ceph01 ceph02 ceph03


4) 部署完成后,編輯/etc/ceph/ceph.conf新增主機(jī)節(jié)點(diǎn)等配置


[global]
fsid = 5b0ce654-4e7a-4f90-8058-d281781878dd
mon_initial_members = ceph03,ceph02,ceph01
mon_host = 133.xxx.xxx.110,133.xxx.xxx.109,133.xxx.xxx.108
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 3


5)配置初始 monitor(s)、并收集所有密鑰

[root@ceph03 ~]# ceph-deploy mon create-initial


把配置信息拷貝到各節(jié)點(diǎn)

[root@ceph03 ~]# ceph-deploy admin ceph01 ceph02 ceph03


6) 配置 osd

分別對(duì)每個(gè)節(jié)點(diǎn)對(duì)每個(gè)盤(pán)進(jìn)行osd配置初始化

for dev in /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg
do
ceph-deploy disk zap ceph01 $dev
ceph-deploy osd create ceph01 --data $dev
ceph-deploy disk zap ceph02 $dev
ceph-deploy osd create ceph02 --data $dev
ceph-deploy disk zap ceph03 $dev
ceph-deploy osd create ceph03 --data $dev
done


7)創(chuàng)建兩個(gè)mgr管理節(jié)點(diǎn)做主備,新版無(wú)管理節(jié)點(diǎn)狀態(tài)會(huì)是warn

ceph-deploy mgr create  ceph03 ceph01


8)安裝完成

使用ceph –s命令可查看安裝后的集群狀態(tài)


3. 使用cephfs

ceph的使用分為對(duì)象存儲(chǔ)、塊存儲(chǔ)和cephfs文件系統(tǒng),本例使用cephfs為例演示ceph的簡(jiǎn)單使用

1)安裝mds

本例在ceph02節(jié)點(diǎn)安裝mds服務(wù)

ceph-deploy mds create ceph02


2)創(chuàng)建pool

分別創(chuàng)建cephfs文件系統(tǒng)使用的數(shù)據(jù)池和元數(shù)據(jù)池

ceph osd pool create cephfs_data 512
ceph osd pool create cephfs_metadata 512

3) 使用創(chuàng)建的pool創(chuàng)建fs

ceph fs new cephfs cephfs_metadata cephfs_data


4)mount掛載文件系統(tǒng)

創(chuàng)建完成后,就可以在任意節(jié)點(diǎn)或客戶(hù)端(linux7系統(tǒng)以上)使用mount命令來(lái)使用此cephfs了。命令如下:

mount -t ceph 133.xxx.xxx.108:6789,133.xxx.xxx.109:6789,133.xxx.xxx.110:6789:/ /cephfs -o name=admin,secret=AQCQp8Rf8*******A2pyAHS1fxAdq0zQ==

【備注】:

  • -t ceph表示使用的文件系統(tǒng)類(lèi)型為ceph

  • IP:port為cephfs節(jié)點(diǎn)的IP和使用的端口,默認(rèn)為6789

  • /cephfs為在客戶(hù)端創(chuàng)建的目錄,用來(lái)掛載cephfs

  • -o name=admin 表示用的admin用戶(hù)進(jìn)行掛載

  • secret=*** 表示的為admin的秘鑰

5) 使用測(cè)試

掛載后,就能在客戶(hù)端機(jī)器df –h看到目錄了

然后可以進(jìn)入/cephfs目錄,寫(xiě)入文件了進(jìn)行使用了。



END


更多精彩干貨分享

點(diǎn)擊下方名片關(guān)注

IT那活兒

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/129756.html

相關(guān)文章

  • 史上最全的Ceph構(gòu)件組件分析

    摘要:層確保數(shù)據(jù)一致性和可靠性。元數(shù)據(jù)服務(wù)器,跟蹤文件層次結(jié)構(gòu)并存儲(chǔ)只供使用的元數(shù)據(jù)。這些文件系統(tǒng)擴(kuò)展屬性能夠?yàn)槭刈o(hù)進(jìn)程提供內(nèi)部對(duì)象的狀態(tài)快照元數(shù)據(jù)和等信息這有助于數(shù)據(jù)管理。啟迪云-高級(jí)開(kāi)發(fā)工程師 ?侯玉彬前言前文回顧:《開(kāi)源社區(qū)的明星項(xiàng)目—Ceph談》上一次簡(jiǎn)單的介紹Ceph的過(guò)去和未來(lái)的發(fā)展。這一節(jié)將詳細(xì)介紹Ceph的構(gòu)件以及組件。Ceph存儲(chǔ)架構(gòu)Ceph 存儲(chǔ)集群由幾個(gè)不同的daemon組成...

    oujie 評(píng)論0 收藏0
  • 技術(shù)棧:史上最全的Ceph構(gòu)件組件分析

    摘要:層確保數(shù)據(jù)一致性和可靠性。保證集群的相關(guān)組件在同一時(shí)刻能夠達(dá)成一致,相當(dāng)于集群的領(lǐng)導(dǎo)層,負(fù)責(zé)收集更新和發(fā)布集群信息。元數(shù)據(jù)服務(wù)器,跟蹤文件層次結(jié)構(gòu)并存儲(chǔ)只供使用的元數(shù)據(jù)。啟迪云-高級(jí)開(kāi)發(fā)工程師 ?侯玉彬前言上一次簡(jiǎn)單的介紹Ceph的過(guò)去和未來(lái)的發(fā)展。這一節(jié)將詳細(xì)介紹Ceph的構(gòu)件以及組件。Ceph存儲(chǔ)架構(gòu)Ceph 存儲(chǔ)集群由幾個(gè)不同的daemon組成,每個(gè)daemon負(fù)責(zé)Ceph 的一個(gè)獨(dú)特...

    big_cat 評(píng)論0 收藏0
  • Ceph v12.2 Luminous基于ubuntu16.04集群部署

    摘要:第一次接觸集群,感謝官方的指導(dǎo)文檔和許多網(wǎng)友提供的教程,糊糊涂涂算是把集群部署起來(lái)了。應(yīng)該為每個(gè)運(yùn)行的機(jī)器添加一個(gè),否則集群處于狀態(tài)。至此的集群搭建算是完成了,下一步會(huì)進(jìn)行塊設(shè)備的搭建。參考分布式存儲(chǔ)部署手冊(cè)如何在中安裝存儲(chǔ)集群部署版 第一次接觸ceph集群,感謝官方的指導(dǎo)文檔和許多網(wǎng)友提供的教程,糊糊涂涂算是把集群部署起來(lái)了。由于Luminous12.2剛發(fā)布不久,部署起來(lái)跟舊版本還...

    MiracleWong 評(píng)論0 收藏0
  • 跟我學(xué) K8S--運(yùn)維: helm 安裝 ceph 到 kubernetes 集群

    摘要:參考官方文檔進(jìn)行操作本文假設(shè)環(huán)境正常運(yùn)行,并且已經(jīng)安裝。只能以單副本運(yùn)行部署運(yùn)行命令來(lái)安裝等待一段時(shí)間執(zhí)行完成后,通過(guò)如下命令確定集群是否成功運(yùn)行檢查的狀態(tài)檢查集群狀態(tài)至此,集群部署完成。 參考 ceph 官方文檔進(jìn)行操作: http://docs.ceph.com/docs/mas... 本文假設(shè)kubernetes 環(huán)境正常運(yùn)行,并且 host 已經(jīng)安裝 helm client。 ...

    marser 評(píng)論0 收藏0
  • 使用Rook+Ceph在Kubernetes上作持久存儲(chǔ)

    摘要:充當(dāng)在的業(yè)務(wù)流程層,將和流程部署為副本集。來(lái)自的文件將存儲(chǔ)軟件轉(zhuǎn)變?yōu)樽晕夜芾碜晕覕U(kuò)展和自我修復(fù)的存儲(chǔ)服務(wù)。由于請(qǐng)求使用文件系統(tǒng)格式化的卷,因此我需要在所有節(jié)點(diǎn)上安裝工具。如果沒(méi)有指定特定的存儲(chǔ)類(lèi),我安裝的任何應(yīng)用程序都將使用進(jìn)行數(shù)據(jù)存儲(chǔ)。 作者:Earl C. Ruby III showImg(https://segmentfault.com/img/bVbljHL?w=300&h=1...

    kuangcaibao 評(píng)論0 收藏0
  • 使用Rook+Ceph在Kubernetes上作持久存儲(chǔ)

    摘要:充當(dāng)在的業(yè)務(wù)流程層,將和流程部署為副本集。來(lái)自的文件將存儲(chǔ)軟件轉(zhuǎn)變?yōu)樽晕夜芾碜晕覕U(kuò)展和自我修復(fù)的存儲(chǔ)服務(wù)。由于請(qǐng)求使用文件系統(tǒng)格式化的卷,因此我需要在所有節(jié)點(diǎn)上安裝工具。如果沒(méi)有指定特定的存儲(chǔ)類(lèi),我安裝的任何應(yīng)用程序都將使用進(jìn)行數(shù)據(jù)存儲(chǔ)。 作者:Earl C. Ruby III showImg(https://segmentfault.com/img/bVbljHL?w=300&h=1...

    muddyway 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<