Node.js 多进程/线程 —— 日志系统架构优化实践

职业规划  高级前端  可视化低代码

点击上方 趣谈前端,关注公众号

回复进群,加入前端交流群

1. 背景

在日常的项目中,常常需要在用户侧记录一些关键的行为,以日志的形式存储在用户本地,对日志进行定期上报。这样能够在用户反馈问题时,准确及时的对问题进行定位。

为了保证日志信息传输的安全、缩小日志文件的体积,在实际的日志上传过程中会对日志进行加密和压缩,最后上传由若干个加密文件组成的一个压缩包。

为了更清晰的查看用户的日志信息。需要搭建一个用户日志管理系统,在管理系统中可以清晰的查看用户的日志信息。但是用户上传的都是经过加密和压缩过的文件,所以就需要在用户上传日志后,实时的对用户上传的日志进行解密和解压缩,还原出用户的关键操作。如下图所示,是一个用户基本的使用过程。

87a99e7de4816de0a01032b9bfa55eea.png

但是解密和解压缩都是十分耗时的操作,需要进行大量的计算,在众多用户庞大的日志量的情况下无法立即完成所有的解密操作,所以上传的日志拥有状态。(解密中、解密完成、解密失败等)

一个常见的日志系统架构如下:

7870346dd7cbba307de1d4bbc18b6dc0.png

其中按照解密状态的变化,大体分为三个阶段:

  1. 用户终端上传日志到 cos 并通知后台日志服务已经上传了日志,后台日志服务记录这条日志,将其状态设置为未解密

  2. 日志服务通知解密服务对刚上传的日志进行解密,收到响应后将日志的状态更改为解密中

  3. 解密服务进行解密,完成后将明文日志上传并通知日志服务已完成解密,日志服务将解密状态更改为解密完成。如果过程中出现错误,则将日志解密状态更改为解密失败

但是在实际的项目使用过程中,发现系统中有很多问题,具体表现如下:

  • 有些日志在上传很久以后,状态仍然为解密中。

  • 日志会大量解密失败。(只要有一个步骤出现错误,状态就会设置为解密失败)

接下来将以这些问题为线索,对其背后的技术实现进行深入探索。

2. 问题分析

第一个问题是有些日志上传很久之后,状态仍然为解密中。根据表现,可以初步确定问题出现在上述的阶段 3(日志状态已设置为解密中,但并未进行进一步的状态设置),因此,可以判断是解密服务内部出现异常。

解密服务使用 Node.js 实现,整体架构如下:

e364eb3e928342b1d0cc7c3a0f4c07b3.png

解密服务 Master 主进程负责进程调度与负载均衡,由它开启多个工作进程(Work Process)处理 cgi 请求,同时它也开启一个解密进程专用于解密操作。下面将着重介绍 Node.js 实现多进程和其通信的方法

2.1 Node.js 实现多进程

2.1.1 使用多进程的好处

进程是资源分配的最小单位,不同进程之间是隔离开来,内存不共享的,使用多进程将相对复杂且独立的内容分隔开来,能降低代码的复杂度,每个进程只需要关注其具体工作内容即可,降低了程序之间的耦合。并且子进程崩溃不影响主进程的稳定性,能够增加系统的鲁棒性。进程作为线程的容器,使用多进程也充分享受多线程所带来的好处。在下文会有多线程的详细介绍。

2.1.2 使用多进程的劣势

进程作为资源分配的最小单位,启动一个进程必须分配给它独立的内存地址空间,需要建立众多的数据表来维护它的代码段、堆栈段和数据段,在进程切换时开销很大,速度较为缓慢。除此之外,进程之间的数据不共享,进程之间的数据传输会造成一定的消耗。

因此,在使用多进程时应充分考虑程序的可靠性、运行效率等,创建适量的进程。

2.1.2 Node.js 提供的实现多进程的模块

Node.js 内部通过两个库创建子进程:child_process 和 cluster,下文先介绍 child_process 模块。

child_process 模块提供了四个创建子进程的函数,分别为:spawn、execFile、exec、fork,可以根据实际的需求选用适当的方法,各个函数的区别如下:

33a48eefd053d668972fd36a57d3ad28.png

其中 fork 用于开启 Node.js 应用,在 Node.js 中较为常用,其用法如下:

c31d9221c95e8ac017d88431671f8520.png

一个简单的 demo 如下:

// demo/parent.js
const ChildProcess = require('child_process');

console.log(`parent pid: ${process.pid}`)

const childProcess = ChildProcess.fork('./child.js');
childProcess.on('message', (msg) => {
    console.log("parent received:", msg);
})
// demo/child.js
console.log(`child pid: ${process.pid}`)

setInterval(() => {
    process.send(newDate());
}, 2000)
$ cd demo && node parent.js // 在demo目录下执行parent.js文件

结果:

23e919291ae611bd8379c4c67db645c9.png

在任务管理器(活动监视器)中看到,确实创建了对应 pid 的 Node.js 进程:

b357d3cb133a93acd8e2b7c9202d0b07.png

2.2 Node.js 实现多进程通信

2.2.1 常见的进程通信方式

试想有以下两个独立的进程,它们通过执行两个 js 文件创建,那么如何在它们之间传递信息呢?

// Process 1
console.log("PID 1:", process.pid);

setInterval(() => { // 保持进程不退出
    console.log("PROCESS 1 is alive");
}, 5000)
// Process 2
console.log("PID 2:", process.pid);

setInterval(() => { // 保持进程不退出
    console.log("PROCESS 2 is alive");
}, 5000)

接下来介绍几种通信方式:

1. 信号

信号是一种通信机制,程序运行时会接受并处理一系列信号,并且可以发送信号。

1.1 发送信号

可以通过 kill 指令向指定进程发送信号,如下例子表示向 pid 为 3000 的进程发送 USR2 信号(用户自定义信号)

// shell指令,可以直接在命令行中输入
$ kill -USR2 3000

1.2 接收信号

定义 process 在指定信号事件时,执行处理函数即可接收并处理信号。在收到未定义处理函数的信号时进程会直接退出

// javascript
process.on('SIGUSR2', () => {
    console.log("接收到了信号USR2");
}

1.3 示例

// Receiver
console.log("PID", process.pid);

setInterval(() => {
    console.log("PROCESS 1 is alive");
}, 5000)

process.on('SIGUSR2', () => {
    console.log("收到了USR2信号");
})

假设 Receiver 执行之后的 pid 为 58241,则:

// Sender
const ChildProcess = require('child_process');

console.log("PID", process.pid);

setInterval(() => {
    console.log("PROCESS 2 is alive");
}, 5000)

const result = ChildProcess.execSync('kill -USR2 58241');

在运行 Sender 后,Receiver 成功收到信号,实现了进程间的通信。同样的方式,Receiver 也可以向 Sender 发送信号。

b45acea709f21f46029534bf82849f65.png

2. 套接字通信

通过在接受方和发送方之间建立 socket 连接实现全双工通信,例如在两者间建立 TCP 连接:

// Server
const net = require('net');

let server = net.createServer((client) => {
    client.on('data', (msg) => {
        console.log("ONCE", String(msg));
        client.write('server send message');
    })
})

server.listen(8087);
// Client
const net = require('net');

const client = new net.Socket();

client.connect('8087', '127.0.0.1');
client.on('data', data =>console.log(String(data)));
client.write('client send message');

创建 server 和 client 进程后成功发送并接收消息,分别输出以下内容:

ea1ad1c4823f0699c607dcbb5e786616.png

87632167cf2b209036536b466b143c6b.png

3. 共享内存

在两个进程之间共享部分内存段,两个进程都可以访问,可用于进程之间的通信。Node.js 中暂无原生的共享内存方式,可通过使用 cpp 扩展模块实现,实现较为复杂,在此不再举例。

4. 命名管道

命名管道可以在不相关的进程之间和不同的计算机之间使用,建立命名管道时给他指定一个名字,任何进程都可以使用名字将其打开,根据给定权限进行通信。

例如我们创建一个命名管道,通过它在 server 和 client 之间传输信息,例如 server 向 client 发送消息:

// shell
$ mkfifo /tmp/nfifo
// Server
const fs = require('fs');

fs.writeFile('/tmp/tmpipe', 'info to send', (data, err) =>console.log(data, err));
// Client

const fs = require('fs');

fs.readFile('/tmp/tmpipe', (err, data) => {
    console.log(err, String(data));
})

先创建命名管道 /tmp/nfifo 后运行 client,与读取一般的文件不同,读取一般的文件会直接返回结果,而读取 fifo 则会等待,在 fifo 有数据写入时返回结果,然后开启 server,server 向 fifo 中写入信息,client 将收到信息,并打印结果,如下所示:

1d343915e8006de457a0c91ad88e1c0c.png

9cd54700ff65f1427680b54b82eca452.png

5. 匿名管道

匿名管道与命名管道类似,但是它是在调用 pipe 函数生成匿名管道后返回一个读端和一个写端,而不具备名字,没有具名管道灵活,在此不做过多介绍。

2.2.2 Node.js 原生的通信方式

原生的 Node.js 在 windows 中使用命名管道实现,在 * nix 系统采用 unix domain socket(套接字)实现,它们都可以实现全双工通信,Node.js 对这些底层实现进行了封装,表现在应用层上的进程间通信,只有简单的 message 事件和 send () 方法,例如父子进程发送消息:

// 主进程 process.js
const fork = require('child_process').fork;

const worker = fork('./child_process.js');
worker.send('start');
worker.on('message', (msg) => {
    console.log(`SERVER RECEIVED: ${msg}`)
})

// 子进程 child_process.js

process.on('message', (msg) => {
    console.log("CLIENT RECEIVED", msg)
    process.send('done');
});

2.2.3 兄弟进程之间通信的实现

Node.js 创建进程时便实现了其进程间通信,但这种方式只能够用于父子进程之间的通信,而不能在兄弟进程之间通信,若要利用原生的方式实现兄弟进程之间的通信,则需要借助它们公共的父进程,发送消息的子进程将消息发送给父进程,然后父进程收到消息时将消息转发给接收消息的进程。但是使用这种方式进行进程间的通信经过父进程的转发效率低下,所以我们可以根据 Node.js 原生的进程间通信方式实现兄弟进程的通信:在 windows 上使用命名管道,在 * nix 上使用 unix 域套接字,该方法与上文套接字通信类似,只是这里不是监听一个端口,而是使用一个文件。

// Server
const net = require('net');

let server = net.createServer(() => {
    console.log("Server start");
})
server.on('connection', (client) => {
    client.on('data', (msg) => {
        console.log(String(msg));
        client.write('server send message');
    })
})

server.listen('/tmp/unix.sock');
// Client
const net = require('net');

const client = new net.Socket();

client.connect('/tmp/unix.sock');
client.on('data', data =>console.log(String(data)));
client.write('client send message');

启动 server 后会在指定路径创建文件,用于 ipc 通信。

2.2.4 本案例中的问题分析

本项目中通过一个 requestManager 实现兄弟进程之间的通信,set 方法用于设定当指定序列号收到消息时执行的回调函数。

5fbb1e150e33c541c3ad5f2a5921e9ae.png

在本项目中过程如下:

1 和 2 流程:

cd96e0740dcd056ddaff58658771f31e.png

3 流程:

2562e3ddaf7047a9b7509f668c113e15.png

解密数据处理片段:

fea1eca0dc6130b2fa838aa73aa5004f.png

而本项目的第一个问题,就出现在这里:程序在返回结果时,调用了 res.toString 方法,在出现异常时调用 e.toString 方法获取异常字符串,而实际中项目抛出的异常可能为空异常 null,null 不具有 toString 方法,所以向客户端写入数据失败,导致了解密状态的更新没有触发。

提示:在处理异常时,返回的异常信息一般情况下应该能描述具体的异常,而不应该返回空值;其次,可以使用 String (e) 代替 e.toString (),并且不应该在捕获到异常时静默处理。

2.3 “粘包” 问题的解决

在解决完上述的问题后,发现 bug 并没有完全解决,于是发现了另一个问题:接收端每次接受的数据并不一定是发送的单条数据,而可能是多条数据的合体。当发送端只发送单条 JSON 数据时,服务端 JSON.parse 单条数据顺利处理消息;然而,当接收端同时接受多条消息时,便会出现错误,最终造成进程间通信超时:

Uncaught SyntaxError: Unexpected token { inJSON

2.3.1 “粘包” 问题的出现原因

由于 TCP 协议是面向字节流的,为了减少网络中报文的数量,默认采取 Nagle 算法进行优化,当向缓冲区写入数据后不会立即将缓冲区的数据发送出去,而可能在写入多条数据后将数据一同发送出去,所以接收端收到的消息可能是多条数据的组合体。除此之外,也有可能是发送端一次发送一条数据,但是接收端没有及时读取,导致后续一次读取多条消息。

2.3.1 “粘包” 问题的解决办法

“粘包” 问题的根本原因就在于传输的数据边界不明确,因此确定数据边界即可。

可以通过在发送的消息前指定消息的长度大小,服务端读取指定长度大小的数据。

除此之外,还能够制定消息的起始和结束符号,起始符和结束符中间的内容即为一条消息。

2.4 异常的处理

在本项目中,解密会大量失败,而大量失败的原因是进程间通信失败,查看具体原因后发现是解密进程已经退出,导致大量的失败。接下来将探讨 Node.js 进程退出的原因和其解决办法。

2.4.1 Node.js 进程退出的原因

在实际 Node.js 进程使用中,如果异常处理不当,会造成进程的退出,使服务不可用。Node.js 退出的原因有以下几种:

  • Node.js 事件循环不再需要执行任何额外的工作,这是一种最常见的进程退出原因,当运行一个 js 文件时,发现文件执行完成之后,进程会自动退出,其原因就是因为事件循环不需要执行额外的工作。阻止此类进程退出可以不断在事件循环中添加事件,如使用 setInterval 方法定时添加任务。

  • 显式调用 process.exit() 方法,该方法可接受一个参数,表示返回代码,代码为 0 表示正常退出,否则为异常。

  • 未捕获的异常, 未捕获的异常会导致进程退出并打印错误信息。使用 process.setUncaughtExceptionCaptureCallback(fn) 可以在有未捕获异常时调用 fn,防止进程的退出。

  • 未兑现的承诺,未捕获的 Promise.reject 在高版本的 Node.js(v15 以后)会导致进程的退出,而在低版本不会。

  • 未监听的错误事件new EventEmitter().emit('error') 若没有监听 error 事件则会导致进程退出,处理方法同未捕获的异常

  • 未处理的信号,在向进程发送信号时,若没有设置监听函数,则进程会退出。

    $ kill -USR2 <程序中输出的pid>

2.4.2 处理异常的方式

对于上述造成 Node.js 退出的原因,都有其解决办法。

  • Node.js 事件循环不再需要执行任何额外的工作,可以在事件循环中定时添加任务,例如 setInterval 会定时添加任务,阻止进程退出。

  • 显示调用 process.exit() 方法,在程序中非必要情况下,不要调用 exit 方法。

  • 未捕获的异常,使用 try { ... } catch (e) { } 对异常进行捕获,并且可以设置 process.setUncaughtExceptionCaptureCallback(fn) 可以在有未捕获异常时调用 fn,防止进程的退出,作为兜底策略。

  • 未兑现的承诺,在 promise 后调用.catch 方法或者设置 process.on('unhandledRejection', fn),防止进程退出,作为兜底策略。

  • 未监听的错误事件,在触发 'error' 事件前,可以通过 EventEmitter.listenerCount 方法查看其监听器的个数,如果没有监听器,则使用其它策略提示错误。

  • 未处理的信号,对于信号量,设置监听函数 process.on('信号量', fn) 监听其信号量的接受,防止进程退出。

2.4.3 异常对于 Promise 状态的影响

process.on('uncaughtException', err =>console.log(err));
let pro = newPromise((resolve, reject) => {
    thrownewError('error');
});
setInterval(() =>console.log(pro), 1000);

这种情况这个 promise 的状态如何呢?在 promise 内部既没有调用 resolve 方法,也没有调用 reject 方法。那么 promise 的状态为 pending 吗?

-- 答案是否定的,在 promise 内部抛出异常,会立即将 promise 的状态更改为 reject,而不会使 promise 的状态始终为 pending。

那么又有另外一个问题,如果当前不捕获异常的情况下,这里使用那个事件捕获异常呢?

unhandledRejectionuncaughtException?

答案是都可以,这个异常会先由 unhandledRejection 的 handler 处理,如果该事件未定义则由 uncaughtException 的 handler 处理,如果两个事件都未定义则会提示错误并终止进程,具体原因在此处不作过多讨论。

2.5 Node.js 多线程

由于需要进行大量的解密和解压缩操作,在本项目中的解密进程中,创建了多个线程,接下来将对 Node.js 多线程做详细的介绍。

2.5.1 使用多线程的好处

前文已经提到过,进程是资源分配的最小单位,使用多进程能够将关联很小的部分隔离开来,使其各自关注自己的职责。

而线程则是 CPU 调度的最小单位,使用多线程能够充分利用 CPU 的多核特性,在每一个核心中执行一个线程,多线程并发执行,提高 CPU 的利用率,适合用于计算密集型任务。

2.5.2 Node.js 提供的实现多线程的模块

在 Node.js 中,内置了用于实现多线程的模块 worker_threads ,该模块提供了如下方法 / 变量:

  • isMainThread:当线程不运行在 Worker 线程中时,为 true。

  • Worker 类:代表独立的 javascript 执行线程:

  • aebc8265a94d5bdf13c3c26cf4e779ac.png

  • parentPort:用于父子线程之间的信息传输:

    // 子线程 -> 父线程
    
    // 子线程中
    const { parentPort } = require('worker_threads');
    parentPort.postMessage(`msg`);
    
    // 父线程中
    const { Worker } = require('worker_threads');
    const worker = new Worker('filepath');
    worker.on('message', (msg) => { console.log(msg) });
    // 父线程 -> 子线程
    
    // 父线程中
    const { Worker } = require('worker_threads');
    const worker = new Worker('filepath');
    worker.postMessage(`msg`);
    
    // 子线程中
    const { parentPort } = require('worker_threads');
    parentPort.on('message', (msg) =>console.log(msg));

2.5.3 单线程、多线程、多进程的比较

接下来,将使用单线程、多线程、多进程完成相同的操作。

// 单线程
console.time('timer');
let j;

for(let i = 0;i<6e9;i++) {
    Math.random();
}

console.timeEnd('timer');
// 多线程

// 主线程 thread.js
console.time('timer');

const { Worker, isMainThread } = require('worker_threads')

let cnt = 15;
for(let i = 0;i<15;i++) {
    const worker = new Worker('./worker.js');
    worker.postMessage('start');
    worker.on('message', () => {
        if(--cnt === 0) {
            console.timeEnd('timer');
            process.exit(0);
        }
    })
}

// 工作线程 worker.js
const { parentPort, isMainThread } = require('worker_threads');

parentPort.on('message', () => {
    for(let i = 0;i<1e9;i++) {
        Math.random();
    }
    parentPort.postMessage('done');
})
// 多进程

// 主进程 process.js

console.time('timer');
const fork = require('child_process').fork;

let cnt = 15;
for(let i = 0;i<15;i++) {
    const worker = fork('./child_process.js');
    worker.send('start');
    worker.on('message', () => {
        if(--cnt === 0) {
            console.timeEnd('timer');
            process.exit(0);
        }
    })
}

// 子进程 child_process.js

process.on('message', () => {
    for(let i = 0;i<1e9;i++) {
        Math.random();
    }
    process.send('done');
});

实际运行结果如下(测试机为 8 核 CPU):

76e40f52e72a59d724c75efde9fe99dd.png

分别为单个线程、6 个线程、6 个进程的运行结果,(在多次实验后)结果有以下规律:

多线程 <多进程 < 单线程 < (多线程 / 多进程) * 6

其原因如下:

多线程:由于充分利用 CPU,所以执行的最快。

多进程:由于每个进程中都有一个线程,同样能充分利用 CPU,但是进程创建的开销要比线程大,所以执行的略慢于多线程。

单线程:由于 CPU 利用不充分所以慢于多线程和多进程,但是由于多线程 / 多进程的创建需要一定的开销,所以快于单个线程执行时间 * 线程个数。

结果与预期一致。

2.5.2 本案例中线程池的问题

在本系统中,实现了一个线程池,它能够在线程持续空闲的时候将线程退出,它会在线程创建时监听它的退出事件。

worker.on('exit', () => {
  // 找到该线程对应的数据结构,然后删除该线程的数据结构
  const position = this.workerQueue.findIndex(({worker}) => {
    return worker.threadId === threadId;
  });
  const exitedThread = this.workerQueue.splice(position, 1);
  // 退出时状态是BUSY说明还在处理任务(非正常退出)
  this.totalWork -= exitedThread.state === THREAD_STATE.BUSY ? 1 : 0;
});

当线程一段时间内都是空闲时,调用线程的 terminate 方法,将其退出。然而,这段代码中的问题是,线程在调用 terminate 函数退出后,其 threadId 自动重置为 - 1,所以这段代码并不会在线程池中将其移除,而由于 splice (-1, 1) 会将线程池中的最后一个线程移出。这样,当线程池分配任务时,会分配给已经退出的线程,而已经退出的线程不具备处理任务的能力,因此造成进程间通信超时。

2.6 内存泄漏问题的处理

在实际的应用中一个服务端项目往往都会持续运行很长时间,Node.js 会自动对没有引用的变量所占用的内存进行回收,但是还有很多内存泄漏的问题,系统并不能够自动对其进行处理,例如使用对象作为缓存,在对象上不断添加数据,而不对无用的缓存做清除,则会导致这个对象占用的内存越来越大,直到达到内存分配的最大限度后进程自动退出。下文将介绍如何分析内存泄漏问题。

2.6.1 内存快照分析

分析内存泄漏问题最基本的方式是通过内存快照,在 Node.js 中可以通过 heapdump 库获取内存快照,内存快照可以用于查看内存的具体占用情况。

const heapdump = require('heapdump');

const A = { // 4587
    b: { // 4585
        c: { // 4583
            d: newArray(1e7),
        }
    }
}

heapdump.writeSnapshot();

例如在 Chrome 调试工具中查看内存快照:

f6333d8c7b861e64feb6f19a2b55ad63.png

在 Summary 快照总览中可以看到内存分配的详细信息。

第一列是 Constructor 构造函数,表示该内存的对象由该构造函数创建,()包裹的部分为内置的底层构造函数,后方的 x1407 表示有 1407 个实例通过该构造函数创建,下方 Object @4583 表示该 Object 实例的唯一内存标识为 4583,下方 d::Array 表示其内部的键为 d 的值为一个 Array 类型的数据;

第二列为 Distance,距离顶层 GCroot 的距离,例如直接在全局作用域中的变量。

第三列为 Shallow Size,表示其自身真实占用的内存大小。

第四列为 Retained Size,表示与其关联的内存大小,此处和此处可释放的子节点占用的内存总和。

从上图可以看出,标记为 4583 的对象,它的键为 d 的数组下真实分配了 80 000 016 字节大小的数据,占总堆分配的数据的 98%,点击它查看详情,可以看到它以 c 这个键存在于标记为 4585 对象下,查看 4585 对象可以看到,它以 b 这个键存在于标记为 4587 的对象下:

10621d7ae24fd5bfd371c1c96f44bf14.png

查看标记为 4587 的对象可以看到,它直接存在于垃圾回收根节点上 GCRoot,与代码完全对应,相关对应关系如下:

const A = { // 4587
    b: { // 4585
        c: { // 4583
            d: e,
        }
    }
}

2.6.2 本案例中的内存泄漏问题

在本案例中,也发现其一些任务始终存在于内存中,下图为时间间隔为一天后内存的占用量,可以看出内存占用量提升的非常快,

1d7a40092835fd6344528fa930efd554.png

3139f4d19d5973819f9ce2c82f74d1a9.png

查看其内存占用后发现是线程池中部分任务,由于进程间通信超时,始终没有得到释放,解决进程间通信超时问题,并且设置一个 timeout 超时释放即可。

b1938080897344645c345a17c9fa3176.png

2.7 npm 包发布流程

在一个大型项目中,往往需要用到多方面的技术,如果各方面内容的实现都放在一起,会比较杂乱,耦合度高,难以阅读和维护。因此,需要对程序的模块进行划分,对每一个模块进行良好的设计,让每一个模块都各司其职,最后组成整个程序。

在本项目中的 nodejs-i-p-c 进程间通信库,nodejs-threadpool 线程池均以包的形式发布到了 npm 上。接下来将介绍基本的 npm 包发布流程。

  1. 注册 npm 账号(https://www.npmjs.com/) 在 npm 官网使用邮箱注册账号,需要注意的是 npm 官网登录只能使用用户名 + 密码登录,而不能使用邮箱 + 密码登录!

  2. 初始化本地 npm 包。在一个本地的空文件夹中运行 npm init 指令,创建一个 npm 仓库,仓库的名称即为将要发布的包的名称。(package.json 文件中的 name 字段)

  3. 登录 npm 账号 在本地命令行中运行 npm login 指令即可进行登录操作,在输入用户名、密码、邮箱后即可完成,登录成功则会提示 Logged in as <username> on https://registry.npmjs.org/. npm whoami 指令可以查看当前登录的账户。

  4. 在(2)中初始化的仓库中运行 npm publish 即可快速发布当前包 如果发布失败,可能是因为包名重复,提示没有权限发布该包,需要更改包名重新发布。

  5. 使用 npm view <package-name> 验证包发布,如果出现该包的详细信息则说明包发布成功了!

在包发布成功之后其他人都能够访问到该包,通过 npm i <package-name> 即可安装您发布的包使用啦。

3. 成果展示

处理前:日志解密大量失败,一些日志持续停留在解密中状态

dd892c778c5b8145a9a7973102f49108.png

9212670dbd2db7ea713637910da3ddc6.png

 处理后:解密全部成功,无其它异常。

8769ad7b9d20dd4f7d018100803de539.png

052f5a2c3121a789cf48d38fda707ecf.gif

紧追技术前沿,深挖专业领域

扫码关注我们吧!

45c48b1189c6c06beba83fb1532ee7e8.png

a26d80bfcb86e2c60a44afcdb5bcb7b3.gif

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值