Openfiler 2.3 Active/Passive Cluster (Heartbeat, DRBD) With Offsite Replication Node(page 2)

6. Initiate Data/Storage Partition

Change Line 53 in /etc/lvm/lvm.conf on all nodes:

filter = [ "a/.*/" ]
to
filter = [ "a|drbd1[0-9]|", "r|.*|" ]

Initiate data Partition:

NOTE: it's important to use the stacked resource device like you done it with the meta partition!

root@filer01 ~# pvcreate /dev/drbd11
root@filer01 ~# vgcreate data /dev/drbd11
root@filer01 ~# lvcreate -L 400M -n filer data

7. Create Final Heartbeat Configuration

Change /meta/opt/openfiler/etc/cluster.xml on filer01:

<?xml version="1.0" ?>
<cluster>
<clustering state="on" />
<nodename value="filer01" />
<resource value="MailTo::it@company.com::ClusterFailover"/>
<resource value="IPaddr::10.10.11.100/24/eth0" />
<resource value="IPaddr::10.10.50.100/24/eth1" />
<resource value="drbdupper::meta-U">
<resource value="drbdupper::data-U">
<resource value="LVM::data">
<resource value="Filesystem::/dev/drbd10::/meta::ext3::defaults,noatime">
<resource value="MakeMounts"/>
</cluster>

Go to https://10.10.11.101:446 and start/stop iscsi target service ( this will recreate/etc/ha.d/haresources on filer01 ).

Copy haresources to filer02:

root@filer01 ~# scp /etc/ha.d/haresources root@filer02:/etc/ha.d/haresources

8. Enable/Disable System Services

We disable the services that are handled by heartbeat in the configuration:

root@filer01 ~# chkconfig --level 2345 heartbeat on
root@filer01 ~# chkconfig --level 2345 drbd on
root@filer01 ~# chkconfig --level 2345 openfiler off
root@filer01 ~# chkconfig --level 2345 open-iscsi off

root@filer02 ~# chkconfig --level 2345 heartbeat on
root@filer02 ~# chkconfig --level 2345 drbd on
root@filer02 ~# chkconfig --level 2345 openfiler off
root@filer02 ~# chkconfig --level 2345 open-iscsi off

root@filer03 ~# chkconfig --level 2345 drbd on
root@filer03 ~# chkconfig --level 2345 openfiler off
root@filer03 ~# chkconfig --level 2345 open-iscsi off

9. Test Failover On node1 And node2

NOTE : ALL DISCS SHOULD BE IN SYNC BEFORE DOING THIS!

Start heartbeat on node 2:

root@filer02 ~# service heartbeat start

Shutdown node 1:

root@filer01 ~# shutdown -h now

Watch /var/log/ha-log on filer02:

root@filer02 ~# tail -n 50 /var/log/ha-log

Check if you can login on https://10.10.11.100:446.

Start filer01 and do a manual failover:

root@filer01 ~# /usr/lib/heartbeat/hb_takeover

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在本地自己的操作系统上,完全模拟生产环境,让学员跟着视频一步一步搭建一套在RHEL7操作系统上面的oracle19c的rac环境。同时学员还会学会DNS服务器,DNS客户端,NTP服务器,NTP客户端等操作系统知识。让学员在短时间内,oracle和操作系统知识,有一定的提升。让学员可以独自轻松安装一套oracle rac环境。一课程主题 模拟生产环境,用多路径共享存储,用虚拟软件安装一套RHEL7.5+oracle19c+rac+打补丁二课程特色 完成模拟生产环境,用openfiler软件模拟生产惠普的3par存储,用2个虚拟网卡模拟数据库服务器的2个HBA卡。课程以实践为主,从头到尾一步一步教学员怎样操作,实践性强模拟生产需求,完全可以把这套环境拿到生产环境安装三课程内容 1.课程结束成果演示    1.1 用workstation,安装一套rhel7+oracle19c+rac+multipath+共享存储+DNS服务器+DNS客户端+NTP服务器+NTP客户端的生产环境    1.2 怎样打oracle19c的rac补丁(包括GI补丁,oracle补丁,数据库补丁,OJVM补丁,bug补丁)2.安装openfiler软件,模拟共享存储+配置多路径访问    2.1安装openfiler软件   2.2配置openfiler软件(配置2个虚拟网卡,模拟服务器的2个HBA卡)   2.3创建ocr磁盘   2.4创建mgmt磁盘   2.5创建数据文件磁盘   2.6创建归档日志磁盘3.安装2台数据库服务器    3.1安装2台数据库服务器RHEL7.5   3.2配置服务器双网卡绑定+配置服务器心跳线4.安装多路径软件识别共享存储中的磁盘     4.1安装服务器本地yum源    4.2安装iscsi软件,配置多路径配置文件,识别共享存储中的磁盘    4.3识别ocr磁盘    4.4识别mgmt磁盘    4.5识别数据文件磁盘    4.6识别归档日志磁盘5.oracle19c的rac环境系统参数官方说明     5.1如何配置oracle19c的rac的系统参数(我们参考官方说明)    5.2oracle19c+rac环境Best Practices 官方说明文档6.安装oracle19c+rac之前的准备工作     6.1修改/etc/hosts文件    6.2配置DNS服务器+DNS客户端+NTP服务器+NTP客户端    6.3创建用户和组    6.4创建目录    6.5修改用户环境变量    6.6安装相关软件包    6.7配置ssh互信    6.9禁用服务器透明大页7.安装oracle+19c+rac软件    7.1安装GI软件   7.2创建ASM磁盘,主要是数据文件磁盘和归档日志磁盘   7.3安装数据库软件   7.4创建数据库实例   7.5日常常用维护集群命令(启停数据库,启停集群,查看监听,教同学们怎样不死记命令,而且命令还正确)8.打补丁   8.1打GI和ORACLE的操作系统补丁  8.2打OJVM补丁  8.3打ORA600的bug补丁9.课程总结和成果演示  9.1课程总结和成果演示 四学习必要工具 安装workstation软件  官网下载openfiler,rhel7.5软件下载oracle软件(包括19.3的rac安装包,19.4的补丁)以上软件我都已经在视频里面做了下载地址说明五课程纠错1)rac的私有ip应该是不同的网段,我在视频中设置错误。Ensure all private Ethernet interfaces are set to different subnets on each node. If different subnets are not used and connectivity is lost, this can cause a node reboot within the cluster2)配置好multipath,以及多路径的别名后,还要增加如下配置文件。[root@hellorac1 rules.d]# cat /etc/udev/rules.d/99-persistent.rulesENV==data, OWNER:=grid, GROUP:=asmadmin, MODE:=660上面的配置文件增加成功后,运行如下命令:#udevadm control --reload-rules#/sbin/udevadm trigger --type=devices --action=change执行完成之后,会发现/dev/dm*相应的磁盘权限变成grid.asmadmin. 视频中只运行了udevadm control --reload-rules。3)安装GI部分1和部分2,先看部分2,再看部分1.特此纠正上面的3个错误。谢谢大家的支持和厚爱。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值