iSCSI Login negotiation failed. lost page write due to I/O error on 盘变成read only

iscsi mount的盘的突然变成read only,在系统日志messages中有下面的记录:

Jun 11 22:05:31 oracle11grestore kernel: Buffer I/O error on device sdd1, logical block 169593217
Jun 11 22:05:31 oracle11grestore kernel: lost page write due to I/O error on sdd1
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd]  Sense Key : Not Ready [current] [descriptor]
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd]  Add. Sense: Logical unit communication failure
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd] CDB: Write(10): 2a 00 4e 70 f9 90 00 00 20 00
Jun 11 22:05:31 oracle11grestore kernel: end_request: I/O error, dev sdd, sector 1316026768
Jun 11 22:05:31 oracle11grestore kernel: Buffer I/O error on device sdd1, logical block 164503090
Jun 11 22:05:31 oracle11grestore kernel: lost page write due to I/O error on sdd1
Jun 11 22:05:31 oracle11grestore kernel: Buffer I/O error on device sdd1, logical block 164503091
Jun 11 22:05:31 oracle11grestore kernel: lost page write due to I/O error on sdd1
Jun 11 22:05:31 oracle11grestore kernel: Buffer I/O error on device sdd1, logical block 164503092
Jun 11 22:05:31 oracle11grestore kernel: lost page write due to I/O error on sdd1
Jun 11 22:05:31 oracle11grestore kernel: Buffer I/O error on device sdd1, logical block 164503093
Jun 11 22:05:31 oracle11grestore kernel: lost page write due to I/O error on sdd1
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd]  Sense Key : Not Ready [current] [descriptor]
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd]  Add. Sense: Logical unit communication failure
Jun 11 22:05:31 oracle11grestore kernel: sd 36:0:0:1: [sdd] CDB: Write(10): 2a 00 56 fa db e0 00 00 10 00
Jun 11 22:05:31 oracle11grestore kernel: end_request: I/O error, dev sdd, sector 1459280864

syslog中有

Jun 11 22:05:58 INFOSEMPER1 kernel: [26052423.897566] Unable to locate Target IQN: iqn.2019-02.com.scutech:555cb1 in Storage Node
Jun 11 22:05:58 INFOSEMPER1 kernel: [26052423.903214] iSCSI Login negotiation failed.
Jun 11 22:05:58 INFOSEMPER1 kernel: [26052423.908367] iSCSI Initiator Node: iqn.1994-05.com.redhat:1df102341c1 is not authorized to access iSCSI target portal group: 1.
Jun 11 22:05:58 INFOSEMPER1 kernel: [26052423.918930] iSCSI Login negotiation failed.

经过分析,可能是网络问题,造成挂载盘的IO错误。
红帽文档介绍REPLACEMENT_TIMEOUT https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/online_storage_reconfiguration_guide/iscsi-replacements_timeout 里面提到默认是120秒,客户是万兆网长期挂载,计划建议增加到86400秒,也就是一天。

文章下方是我的微信,欢迎加我。👇

<think>嗯,用户遇到了Ceph iSCSI目标配置API启动失败的问题,需要解决。首先,我应该回忆一下Ceph的iSCSI网关组件。Ceph通过iSCSI协议将RBD镜像导出为块存储,而配置API可能是指`rbd-target-api`服务,这个服务负责管理iSCSI目标配置。启动失败可能有多种原因,比如配置文件错误、依赖服务未运行、权限问题或者端口冲突。 接下来,我需要按照步骤来排查问题。首先检查服务状态,用systemctl看看服务的状态和日志,这能帮助定位具体的错误信息。然后查看日志,通常日志会指出哪里出问题,比如配置文件语法错误或者无法连接到Ceph集群。 然后是检查配置文件,比如/etc/ceph/iscsi-gateway.cfg,确认里面的参数是否正确,比如集群名称、客户端名称、API的IP和端口是否正确。另外,还要确保Ceph集群本身是健康的,因为如果monitor或者OSD有问题,API服务可能无法启动。 权限方面,需要确认运行API服务的用户(比如ceph用户)是否有足够的权限访问Ceph集群,特别是客户端密钥是否正确配置。如果使用了SSL/TLS,证书的有效性也需要检查,包括路径和权限是否正确。 端口冲突也是一个可能的原因,默认情况下API使用9283端口,检查是否有其他进程占用了这个端口,可以用netstat或者ss命令查看。另外,SELinux或防火墙设置可能会阻止服务绑定端口或通信,需要检查这些安全设置。 如果配置有更改,可能需要重新加载服务或者重启服务。还有,确认相关的依赖服务如tgtd或targetcli是否正常运行,因为iSCSI目标配置依赖这些服务。 最后,如果以上步骤都没解决问题,可能需要升级软件包,或者查找已知的bug,查看官方文档和社区资源。用户可能需要具体根据日志中的错误信息进一步处理,比如证书错误、连接超时等,提供相应的解决方案。 在生成相关问题的时候,要考虑到用户可能后续会遇到的类似问题,比如权限错误、配置文件参数或者集群健康状态的问题,以及如何验证配置是否正确,这些都是常见的后续疑问。</think>### Ceph iSCSI目标配置API启动失败的解决方案 #### 1. 检查服务状态与日志 ```bash systemctl status rbd-target-api # 查看服务状态 journalctl -u rbd-target-api -xe # 查看详细日志 ``` 通过日志可定位具体错误类型,例如: - 配置文件路径错误(`Config file /etc/ceph/iscsi-gateway.cfg not found`) - Ceph集群连接失败(`Failed to connect to cluster`)[^1] #### 2. 验证配置文件 检查`/etc/ceph/iscsi-gateway.cfg`核心参数: ```ini [config] cluster_name = ceph gateway_keyring = ceph.client.admin.keyring api_port = 9283 api_secure = true # 需配套证书文件 ``` 注意证书文件路径需正确配置: ```ini api_ssl_cert = /etc/ceph/iscsi-gateway.crt api_ssl_key = /etc/ceph/iscsi-gateway.key ``` #### 3. 检查权限与证书 ```bash ls -l /etc/ceph/iscsi-gateway.* # 验证证书文件权限 ceph -s # 确认集群健康状态 ceph auth get client.admin # 验证密钥有效性 ``` 若使用TLS加密,需确保证书: - 有效时间未过期 - 私钥文件权限为600 - 证书链完整 #### 4. 排查端口冲突 ```bash ss -tuln | grep 9283 # 检查端口占用情况 firewall-cmd --list-ports # 查看防火墙规则 ``` 若端口被占用可修改配置文件中的`api_port`参数,或终止冲突进程。 #### 5. 依赖服务验证 ```bash systemctl status tcmu-runner # 检查iSCSI内核模块服务 ceph osd lspools # 确认存储池存在性 ``` 若使用Ceph Luminous及以上版本,需确保已创建`iscsi-pool`专用存储池。 #### 6. 重新部署服务 ```bash ceph-iscsi-config apply -i /etc/ceph/iscsi-gateway.cfg # 强制应用配置 systemctl daemon-reload systemctl restart rbd-target-api ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

姚远Oracle ACE

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值