写一个简单的模板引擎

写一个简单的模板引擎

ES6 开始支持模板字符串(Template literals),支持如下的写法:

`string text ${expression} string text`;

其实在很多模板引擎中,常常会有这样需求,比如常用的 doT,使用类似的语法

<div>{{=1+2}}</div>
// 或者支持循环或者判断 {{for(var i in it){}}}
<span>{{=i}}</span>
{{}}}

简单插值的实现

我们先来看看一个模板引擎基本的实现需要什么,先不考虑循环和判断,只支持变量运算。
打开Babel,输入

const a = 1;
console.log(`Hi\n${2 + 3}!dk${a}`);

经过Babel转义以后,可以看到

"use strict";

var a = 1;
console.log("Hi\n".concat(2 + 3, "!dk").concat(a));

可以看到,Babel把插值提取到 concat 入参,通过函数入参的自计算实现了 Template literals。在我们的使用中,其实没法直接做到这样的效果。
但是仿造Babel的做法,我们可以整理一下自己的思路:

  1. 通过正则把插值和实际字符串拆开
  2. 通过eval或者new Function()实现插值的计算
  3. 通过 concat 拼接,也可以使用 String.raw

代码实现如下:

var str = "string text ${1 + 2} string text ${2 + 3} test";
function template(str) {
  var pattern = /\$\{.*?\}/g;
  var patternCapture = /\$\{(.*?)\}/g;

  // 将非插值字符串分割出来
  var strArr = str.split(pattern);

  // 将插值字符串分割出来
  var rawArr = str
    .match(patternCapture)
    .map(item => item.replace(patternCapture, "$1"));

  // eval转换
  var valueArr = rawArr.map(r => eval(r));

  // 使用reduce和concat拼接,
  return strArr.reduce(
    (acc, curr, index) => acc.concat(curr, valueArr[index] || ""),
    ""
  );
  // 或者使用String.raw
  // return String.raw({ raw: strArr }, ...valueArr);
}

console.log(template(str));

new Function

上面使用eval对插值进行了求值,实际上在平时使用中,eval是不推荐的。而且用eval去解析一些循环判断和条件判断也不是很方便。
所以接下来使用new Function()去构建一个模板函数。在这之前,需要说明一下new Function的用法。

new Function ([arg1[, arg2[, ...argN]],] functionBody)

前面传入的是函数所需要的参数,最后是函数体,函数体是一个包括函数定义的 JavaScript 语句字符串。
其次,根据上面的插值实现,我们可以使用字符串拼接把插值计算之后和正常的字符串拼接起来。
对于简单插值,使用{{}}包裹,而语句使用{{~}}区别。下面是一个简单实现

function render(tem, data) {
  let template = tem;
  template = template
    .replace(/[\r\n\t]/g, "")
    .replace(/\{\{~(.+?)\}\}/g, (_, p1) => {
      return '";' + p1 + ' out+="';
    })
    .replace(/\{\{(.+?)\}\}/g, (_, p1) => {
      return '"; out+=""+' + p1 + '+""; out+="';
    });
  template = 'var out=""; out += "' + template + '";return out;';
  var _render = new Function(...Object.keys(data), template);

  return _render(...Object.keys(data).map(k => data[k]));
}

var template =
  "test array{{~for (var i in group.jobs) {}}{{group.jobs[i]}}  {{~}}} test obj {{group.jobs[1]}} {{group.name}} leader是{{leader}}";

var data = {
  group: {
    name: "group1",
    jobs: ["job1", "job2"]
  },
  leader: "张三"
};

console.log(render(template, data));

在给模板注入数据时,可以使用with(data){}的方式,我不喜欢使用with,所以把参数分解后传入了。

(完)。

转载于:https://www.cnblogs.com/liuyongjia/p/10962850.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个简单的TensorRT C++部署模板,你可以根据自己的需求进行修改: ```c++ #include <iostream> #include <fstream> #include <sstream> #include <vector> #include <ctime> #include "NvInfer.h" #include "NvOnnxParser.h" #include "NvUffParser.h" #include "NvInferPlugin.h" #include "NvUtils.h" using namespace nvinfer1; using namespace nvonnxparser; using namespace nvuffparser; using namespace plugin; // 定义输入和输出张量大小 const int BATCH_SIZE = 1; const int INPUT_CHANNEL = 3; const int INPUT_HEIGHT = 224; const int INPUT_WIDTH = 224; const int OUTPUT_SIZE = 1000; // 定义TensorRT日志回调函数 void logCallback(const char* msg, const char* /*file*/, int /*line*/) { std::cout << "[TensorRT] " << msg << std::endl; } int main(int argc, char** argv) { // 创建Logger对象 Logger logger; logger.log(ILogger::Severity::kINFO, "TensorRT version: " + std::to_string(getInferLibVersion())); // 创建Builder对象 IBuilder* builder = createInferBuilder(logger); if (!builder) { std::cerr << "Failed to create builder." << std::endl; return -1; } // 创建NetworkDefinition对象 INetworkDefinition* network = builder->createNetwork(); if (!network) { std::cerr << "Failed to create network." << std::endl; return -1; } // 创建ONNX解析器对象 IParser* parser = createParser(*network, logger); if (!parser) { std::cerr << "Failed to create parser." << std::endl; return -1; } // 从ONNX模型文件中解析网络结构 std::string onnxModelFile = "model.onnx"; parser->parseFromFile(onnxModelFile.c_str(), static_cast<int>(ILogger::Severity::kWARNING)); if (parser->getNbErrors() > 0) { std::cerr << "Failed to parse ONNX model." << std::endl; return -1; } // 构建推理引擎 builder->setMaxBatchSize(BATCH_SIZE); builder->setMaxWorkspaceSize(1 << 30); builder->setFp16Mode(true); builder->setInt8Mode(false); ICudaEngine* engine = builder->buildCudaEngine(*network); if (!engine) { std::cerr << "Failed to build engine." << std::endl; return -1; } // 创建ExecutionContex对象 IExecutionContext* context = engine->createExecutionContext(); if (!context) { std::cerr << "Failed to create execution context." << std::endl; return -1; } // 分配输入和输出内存 std::vector<float> inputData(BATCH_SIZE * INPUT_CHANNEL * INPUT_HEIGHT * INPUT_WIDTH); std::vector<float> outputData(BATCH_SIZE * OUTPUT_SIZE); // 生成随机数据作为输入 srand(time(nullptr)); for (size_t i = 0; i < inputData.size(); i++) { inputData[i] = static_cast<float>(rand()) / RAND_MAX; } // 将输入数据传输到显存中 void* inputDevice = nullptr; cudaMalloc(&inputDevice, inputData.size() * sizeof(float)); cudaMemcpy(inputDevice, inputData.data(), inputData.size() * sizeof(float), cudaMemcpyHostToDevice); // 分配GPU内存作为输出 void* outputDevice = nullptr; cudaMalloc(&outputDevice, outputData.size() * sizeof(float)); // 创建CUDA流 cudaStream_t stream = nullptr; cudaStreamCreate(&stream); // 执行推理 std::vector<void*> bindings(2); bindings[0] = inputDevice; bindings[1] = outputDevice; context->enqueueV2(bindings.data(), stream, nullptr); cudaStreamSynchronize(stream); // 将输出数据从显存中传输回CPU内存 cudaMemcpy(outputData.data(), outputDevice, outputData.size() * sizeof(float), cudaMemcpyDeviceToHost); // 打印输出结果 for (size_t i = 0; i < outputData.size(); i++) { std::cout << outputData[i] << " "; } std::cout << std::endl; // 释放资源 cudaStreamDestroy(stream); cudaFree(inputDevice); cudaFree(outputDevice); context->destroy(); engine->destroy(); network->destroy(); parser->destroy(); builder->destroy(); return 0; } ``` 在这个模板中,我们首先创建了一个Logger对象用于记录TensorRT的日志信息,然后创建了一个Builder对象用于构建推理引擎,接着创建了一个NetworkDefinition对象用于描述网络结构,然后创建了一个ONNX解析器对象用于从ONNX模型文件中解析网络结构,接着使用Builder对象构建推理引擎,创建ExecutionContex对象用于推理,分配输入和输出内存并生成随机数据作为输入,将输入数据传输到显存中,然后执行推理,将输出数据从显存中传输回CPU内存,并打印输出结果。最后释放资源。 需要注意的是,在实际应用中,你需要根据自己的模型及数据进行修改。同时,这里使用了FP16精度模式和CUDA流进行加速,如果你的GPU不支持FP16精度模式,可以将其设置为false。如果你不需要使用CUDA流,可以直接传入nullptr。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值