简化跳板机操作

公司机器需要经由跳板机登录,这造成了以下日常操作变得繁琐

两次登录: 需要先登录跳板机,再由跳板机登录目的机器
拷贝文件: 需要先拷贝到跳板机,再由跳板机拷贝到目的机器(或本地)
查看集群内web服务: 需要登录远程桌面,在远程桌面浏览器中使用

本文将介绍一些ssh使用技巧,使得跳板机对用户透明,简化日常操作

Prelude(需自行配置免密登录)
无密码登录
将自己的public key写入目标机器的authorized_keys即可实现无密码登录

ssh-keygen

mkdir .ssh && cd .ssh && echo ''public key' > ./authorized_keys

ssh config 文件
每次都在命令行输入大量参数费时费力,可以把常用的一些配置保存在ssh的配置文件中
用户自己的ssh配置文件为~/.ssh/config
一个样例配置如下(后面会有详细讲解)

Host perjump
 HostName 192.168.1.1
 User <你的用户名>
 Port 8220
 KeepAlive yes
 ServerAliveInterval 60
 ControlMaster auto

Host bj
 HostName 192.168.1.2
 User  <你的用户名>
 ForwardAgent yes
 ProxyCommand ssh perjump nc %h %p

直接登录目的机器

跳板机配置
解释:
Host perjump  				#是给跳板机一个别名(perjump)
	HostName 192.168.1.1  #跳板机的ip或者主机名
	User <你的用户名> 		#登录主机的用户名
	Port 8220				 		#远程登录端口号

与直接在命令行输入
ssh <你的用户名>@192.168.1.1 -p8220效果相同。

有了这段配置之后,只需要在命令行输入跳板机的别名就可以按配置登陆了
ssh perjump

目的机器配置
Host bj
 HostName 192.168.1.2
 User  <你的用户名>
ForwardAgent yes
ProxyCommand ssh perjump nc %h %p 
ProxyCommand中命令为先登录跳板机(perjump),在跳板机中用nc(netcat)向目的机器转发。这样我们就能使得跳板机对用户透明
开启ForwardAgent使得跳板机使用本地机器的public key作为身份验证。这样就无需使用跳板机自身的public key, 目的机器只用上只用将本地机器的public key写入authorized_keys中就可实现无密码登录

有了这段配置之后,只需要在命令行输入目的机器的别名就可以按配置登陆了
ssh bj

直接在本机和目的机器之间拷贝文件
ssh的配置文件对scp同样有效。前文的配置文件就能实现使用scp直接在本地和目的机器直接拷贝文件

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用ONNX模型简化操作需要使用ONNX Runtime的Python API。下面是一个简单的示例代码,演示如何使用ONNX Runtime简化ONNX模型。 ```python import onnx import onnxruntime as ort # 加载ONNX模型 onnx_model = onnx.load('model.onnx') # 创建ONNX Runtime的推理会话 ort_session = ort.InferenceSession('model.onnx') # 获取模型的输入和输出名称 input_name = ort_session.get_inputs()[0].name output_name = ort_session.get_outputs()[0].name # 加载一个输入张量 input_data = np.random.rand(1, 3, 224, 224).astype(np.float32) # 运行推理 output_data = ort_session.run([output_name], {input_name: input_data}) # 打印输出 print(output_data) ``` 在这个示例中,我们使用ONNX Runtime加载了一个ONNX模型,并创建了一个推理会话。我们还获取了输入和输出张量的名称,并加载了一个输入张量。最后,我们运行了推理,并打印了输出。 要进行模型简化操作,我们需要使用ONNX Runtime的优化器。下面是一个简单的示例代码,演示如何使用ONNX Runtime的优化器简化ONNX模型。 ```python import onnx import onnxruntime as ort # 加载ONNX模型 onnx_model = onnx.load('model.onnx') # 创建ONNX Runtime的优化器 optimized_model = ort.ORTTrainerModel.optimize(onnx_model) # 保存简化后的模型 onnx.save(optimized_model, 'optimized_model.onnx') ``` 在这个示例中,我们使用ONNX Runtime的ORTTrainerModel.optimize()方法简化了ONNX模型,并将简化后的模型保存到了本地。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值