ceph中文网址快速安装地址 http://docs.ceph.org.cn/start/
三台主机
master(192.168.2.181) 管理节点和客户端
node1(192.168.2.182) mon(镜像服务)和mds(元数据服务)
node2(192.168.2.183) osd(存储服务) 包括/dev/sdb1 和 /dev/sdc1两个硬盘存储
预检 Ubuntu14.04(VM虚拟机 2G 20G硬盘)
创建统一用户名和密码
user 1qaz!QAZ
让用户可以无密码使用sudo命令
sudo vi /etc/sudoers
把里面的%sudo行改成 %sudo ALL=(ALL:ALL) NOPASSWD:ALL
安装ssh(三台机子分别执行)
sudo apt-get install openssh-server
安装ntp(三台机子分别执行)
sudo apt-get install ntp
节点之间分别无密码 ssh公钥登录
每个节点执行修改hostname操作,执行完需要重启虚拟机
master执行 hostnamectl set-hostname master
node1执行 hostnamectl set-hostname node1
node2执行 hostnamectl set-hostname node2
在/etc/hosts 里增加 (三台机子分别执行)
192.168.2.181 master
192.168.2.182 node1
192.168.2.183 node2
在/home/user/.ssh里增加config文件 (三台机子分别执行)
cd /home/user/.ssh
vi config
Host node1
Hostname node1
User user
Host node2
Hostname node2
User user
Host master
Hostname master
User user
创建公钥 (三台机子分别执行)
ssh-keygen
向个节点拷贝公钥 (三台机子分别执行)
ssh-copy-id user@master
ssh-copy-id user@node2
ssh-copy-id user@node3
关闭防火墙 (三台机子分别执行)
sudo ufw disable
添加 release key :(master下执行)
wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add -
添加Ceph软件包源,用Ceph稳定版(如 cuttlefish 、 dumpling 、 emperor 、 firefly 等等)替换掉 {ceph-stable-release} 。例如:
echo deb http://download.ceph.com/debian-kraken/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list
更新你的仓库,并安装 ceph-deploy :
sudo apt-get install ceph-deploy
创建集群
各节点分别执行 sudo apt-get install ceph
在node2创建硬盘 /dev/sdb1 /dev/sdc1(过程略)
在master下执行
cd ~
mkdir my-cluster
cd my-cluster
ceph-deploy new node1
osd pool default size = 2
ceph-deploy install admin-node node1 node2 node3
ceph-deploy mon create-initial
ceph-deploy osd prepare node2:/dev/sdb1 node2:/dev/sdc1
ceph-deploy osd activate node2:/dev/sdb1 node2:/dev/sdc1
sudo chmod +r /etc/ceph/ceph.client.admin.keyring
ceph health
ceph -w
创建pool
ceph osd pool create cephfs_data <pg_num>
例如:ceph osd pool create cephfs_data 128
ceph osd pool create cephfs_metadata <pg_num>
例如:ceph osd pool create cephfs_metadata 128
ceph fs new <fs_name> cephfs_metadata cephfs_data
例如:ceph fs new filesystem cephfs_metadata cephfs_data
文件操作命令
上传 rados put zabbix_client_install.tar.gz ./zabbix_client_install.tar.gz --pool=cephfs_data
查看文件 rados -p cephfs_data ls
定位对象 ceph osd map cephfs_data {object-name}
下载 rados get {object-name} {file-path} --pool= cephfs_data
三台主机
master(192.168.2.181) 管理节点和客户端
node1(192.168.2.182) mon(镜像服务)和mds(元数据服务)
node2(192.168.2.183) osd(存储服务) 包括/dev/sdb1 和 /dev/sdc1两个硬盘存储
预检 Ubuntu14.04(VM虚拟机 2G 20G硬盘)
创建统一用户名和密码
user 1qaz!QAZ
让用户可以无密码使用sudo命令
sudo vi /etc/sudoers
把里面的%sudo行改成 %sudo ALL=(ALL:ALL) NOPASSWD:ALL
安装ssh(三台机子分别执行)
sudo apt-get install openssh-server
安装ntp(三台机子分别执行)
sudo apt-get install ntp
节点之间分别无密码 ssh公钥登录
每个节点执行修改hostname操作,执行完需要重启虚拟机
master执行 hostnamectl set-hostname master
node1执行 hostnamectl set-hostname node1
node2执行 hostnamectl set-hostname node2
在/etc/hosts 里增加 (三台机子分别执行)
192.168.2.181 master
192.168.2.182 node1
192.168.2.183 node2
在/home/user/.ssh里增加config文件 (三台机子分别执行)
cd /home/user/.ssh
vi config
Host node1
Hostname node1
User user
Host node2
Hostname node2
User user
Host master
Hostname master
User user
创建公钥 (三台机子分别执行)
ssh-keygen
向个节点拷贝公钥 (三台机子分别执行)
ssh-copy-id user@master
ssh-copy-id user@node2
ssh-copy-id user@node3
关闭防火墙 (三台机子分别执行)
sudo ufw disable
添加 release key :(master下执行)
wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add -
添加Ceph软件包源,用Ceph稳定版(如 cuttlefish 、 dumpling 、 emperor 、 firefly 等等)替换掉 {ceph-stable-release} 。例如:
echo deb http://download.ceph.com/debian-kraken/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list
更新你的仓库,并安装 ceph-deploy :
sudo apt-get install ceph-deploy
创建集群
各节点分别执行 sudo apt-get install ceph
在node2创建硬盘 /dev/sdb1 /dev/sdc1(过程略)
在master下执行
cd ~
mkdir my-cluster
cd my-cluster
ceph-deploy new node1
osd pool default size = 2
ceph-deploy install admin-node node1 node2 node3
ceph-deploy mon create-initial
ceph-deploy osd prepare node2:/dev/sdb1 node2:/dev/sdc1
ceph-deploy osd activate node2:/dev/sdb1 node2:/dev/sdc1
sudo chmod +r /etc/ceph/ceph.client.admin.keyring
ceph health
ceph -w
创建pool
ceph osd pool create cephfs_data <pg_num>
例如:ceph osd pool create cephfs_data 128
ceph osd pool create cephfs_metadata <pg_num>
例如:ceph osd pool create cephfs_metadata 128
ceph fs new <fs_name> cephfs_metadata cephfs_data
例如:ceph fs new filesystem cephfs_metadata cephfs_data
文件操作命令
上传 rados put zabbix_client_install.tar.gz ./zabbix_client_install.tar.gz --pool=cephfs_data
查看文件 rados -p cephfs_data ls
定位对象 ceph osd map cephfs_data {object-name}
下载 rados get {object-name} {file-path} --pool= cephfs_data
删除 rados rm {object-name} --pool=cephfs_data
转载请表明出处。