ceph 快速搭建步骤 VM虚拟机+Ubuntu14.04

ceph中文网址快速安装地址    http://docs.ceph.org.cn/start/

三台主机

master(192.168.2.181) 管理节点和客户端
node1(192.168.2.182)  mon(镜像服务)和mds(元数据服务)
node2(192.168.2.183)  osd(存储服务) 包括/dev/sdb1 和 /dev/sdc1两个硬盘存储

预检  Ubuntu14.04(VM虚拟机 2G 20G硬盘)

创建统一用户名和密码  

     user  1qaz!QAZ

让用户可以无密码使用sudo命令

     sudo vi /etc/sudoers
      把里面的%sudo行改成 %sudo    ALL=(ALL:ALL) NOPASSWD:ALL

安装ssh(三台机子分别执行)

      sudo apt-get install openssh-server

安装ntp(三台机子分别执行)

      sudo apt-get install ntp

节点之间分别无密码 ssh公钥登录
     
     每个节点执行修改hostname操作,执行完需要重启虚拟机

        master执行 hostnamectl set-hostname master
        node1执行 hostnamectl set-hostname node1
        node2执行 hostnamectl set-hostname node2

     在/etc/hosts 里增加 (三台机子分别执行)

      192.168.2.181 master
         192.168.2.182 node1
         192.168.2.183 node2

     在/home/user/.ssh里增加config文件 (三台机子分别执行)

     cd /home/user/.ssh

     vi config
                Host node1
               Hostname node1
               User user
         Host node2
               Hostname node2
               User user
         Host master
               Hostname master
               User user

     创建公钥 (三台机子分别执行)

         
         ssh-keygen

     向个节点拷贝公钥 (三台机子分别执行)

         ssh-copy-id user@master
         ssh-copy-id user@node2
         ssh-copy-id user@node3

关闭防火墙 (三台机子分别执行)

      sudo ufw disable
      
添加 release key :(master下执行)

    wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add -

添加Ceph软件包源,用Ceph稳定版(如 cuttlefish 、 dumpling 、 emperor 、 firefly 等等)替换掉 {ceph-stable-release} 。例如:

    echo deb http://download.ceph.com/debian-kraken/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list

更新你的仓库,并安装 ceph-deploy :

    sudo apt-get install ceph-deploy


创建集群

各节点分别执行 sudo apt-get install ceph

在node2创建硬盘 /dev/sdb1 /dev/sdc1(过程略)

在master下执行

    cd ~

    mkdir my-cluster

    cd my-cluster

    ceph-deploy new node1

    osd pool default size = 2

    ceph-deploy install admin-node node1 node2 node3

    ceph-deploy mon create-initial

    ceph-deploy osd prepare node2:/dev/sdb1 node2:/dev/sdc1

    ceph-deploy osd activate node2:/dev/sdb1 node2:/dev/sdc1

    sudo chmod +r /etc/ceph/ceph.client.admin.keyring

    ceph health

    ceph -w


   创建pool
      ceph osd pool create cephfs_data <pg_num>

           例如:ceph osd pool create cephfs_data 128

      ceph osd pool create cephfs_metadata <pg_num>

           例如:ceph osd pool create cephfs_metadata 128

      ceph fs new <fs_name> cephfs_metadata cephfs_data

           例如:ceph fs new filesystem cephfs_metadata cephfs_data


文件操作命令

上传  rados put zabbix_client_install.tar.gz ./zabbix_client_install.tar.gz --pool=cephfs_data

查看文件  rados -p cephfs_data ls

定位对象  ceph osd map cephfs_data {object-name}

下载  rados get {object-name} {file-path} --pool= cephfs_data

删除 rados rm {object-name} --pool=cephfs_data


转载请表明出处。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值