compile error_运行node端口号被占用,报错Unhandled 'error' event

62fadd53deb55dcebe6c2195b46b94b3.png

渣艾达今天在学node的时候遇到一个问题:

重启程序时提示我端口被占用:

node index.js 
events.js:183
      throw er; // Unhandled 'error' event
      ^

Error: listen EADDRINUSE :::2335
    at Object._errnoException (util.js:1024:11)
    at _exceptionWithHostPort (util.js:1046:20)
    at Server.setupListenHandle [as _listen2] (net.js:1351:14)
    at listenInCluster (net.js:1392:12)
    at Server.listen (net.js:1476:7)
    at Application.listen (/Users/xin/Desktop/learn/koa/node_modules/_koa@2.7.0@koa/lib/application.js:65:19)
    at Object.<anonymous> (/Users/xin/Desktop/learn/koa/server/index.js:22:5)
    at Module._compile (module.js:635:30)
    at Object.Module._extensions..js (module.js:646:10)
    at Module.load (module.js:554:32)

划重点:Unhandled 'error' event,看见这个报错就是端口号被占用了。

解决方案有2种:

  1. 换个端口号
  2. 杀掉node服务

接下来就简单说下杀掉服务这个事儿:

//查询端口号对应的pid
lsof -i:端口号   exp:lsof -i:2335
//根据pid杀掉你正在占用的端口号程序
sudo kill -9 pid   exp:sudo kill -9 1756

//这个看到你在运行的node服务,但是不知道占用的端口号,只有pid,当个知识了解下吧
ps -ax | grep node

that's all,谢谢大家

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可能是您的CUDA和cuDNN版本不兼容,或者您的显卡驱动不支持CUDA。请检查您的CUDA和cuDNN版本是否与TensorRT所需的版本匹配,并确保您的显卡驱动支持CUDA。如果您是使用Docker容器进行开发,请确保容器的CUDA和cuDNN版本与您的系统相匹配。此外,您还可以尝试更新TensorRT和CUDA到最新版本。 ### 回答2: 当您在使用Python的TensorFlow库时,如果您已安装好GPU驱动程序并正确配置了CUDA和cuDNN,则使用GPU进行模型编译应该是可行的。但是,当您尝试使用CompiledModel的compile_model()方法时却出现错误,可能有以下几个原因: 1. Tensorflow版本不兼容:请确保您安装的TensorFlow版本与使用的编译模型方法兼容。某些方法在较旧版本的TensorFlow中可能不可用。 2. 缺少依赖库:TensorFlow的GPU版本需要CUDA和cuDNN作为后端支持。请确认您的系统中是否正确安装了这些依赖库,并且版本与您所使用的TensorFlow版本是兼容的。 3. GPU驱动问题:检查您的GPU驱动程序是否正确安装,并且与您所使用的CUDA版本兼容。您可以通过运行nvidia-smi命令来查看您的GPU驱动程序和CUDA版本。 4. GPU资源不足:如果您的GPU资源被其他程序或进程占用,可能会导致编译模型时出现错误。请确保您的GPU资源可用并且没有被其他任务占用。 5. 模型文件问题:检查您要编译的模型文件是否存在并且正确。如果文件路径有误或者模型文件损坏,编译模型方法将无法运行。 如果您在检查以上问题后仍然无法解决错误,请尝试在TensorFlow的官方论坛或GitHub页面上提问,以获取更专业的技术支持。同时,提供详细的错误信息和相关代码也有助于他人更好地理解问题并提供解决方案。 ### 回答3: 当安装好GPU但是在调用`core.compile_model()`函数,并传入参数`"GPU"`时,报错可能是由以下原因引起的: 1. GPU设备未正确安装:首先应确保已正确安装并配置了GPU设备驱动和运行环境。可以确认GPU驱动是否正确安装以及是否支持所使用的GPU型号。 2. 缺少相关依赖库:在使用GPU进行编译模型之前,确保已正确安装了相关的GPU依赖库和框架,如CUDA、cuDNN等。可以检查是否正确安装这些依赖库,并确保版本与所使用的GPU驱动兼容。 3. 模型文件格式不支持GPU编译:某些模型文件可能不支持直接在GPU上编译,需要转换为支持GPU编译的格式。可以尝试将模型文件转换为支持GPU编译的格式,如ONNX、TensorRT等。 4. 编译模型参数错误:编译模型时,可能传入了不正确或不支持的参数。可以确认参数是否正确传入,并参考相关文档或示例代码确定正确的参数选项。 综上所述,当已安装好GPU但在调用`core.compile_model()`函数报错时,需要确认GPU设备是否正确安装、相关依赖库是否完整、模型文件是否支持GPU编译以及编译参数是否正确。根据具体情况进行排查和调试,以解决报错问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值