ML.NET处理Transformer 模型,小白也能完成的机器训练之自然语言处理

这里假设我们的某个场景为:

用户进行答卷,我们需要根据用户的答卷内容给他标记为正向、负向、中性的词汇

每次人工标注就很麻烦,所以这里我们训练模型后,只需要将用户答卷内容丢给我们训练的模型,那么就能直接获取到用户的答卷内容属于哪种标签,之后可以做一些类似语义分析的大屏统计(后面会讲到如何进行语义分析)

我这里最开始用python试了下预训练Transformer模型,发现占用内存是真的高,感觉效率有点不尽人意

你们有兴趣的可以了解下python如何处理,其中model_name = "bert-base-chinese"

这个可以访问官网https://huggingface.co/下载到本地,这样会快一点,不过可能需要翻墙

进入官网后,首页输入框搜bert-base-chinese即可

python我研究的不深,你们自己了解就行,我也就做了个简单模型跑跑

后面选择使用ML.Net进行处理,效率快很多

与 Python 相比,ML.NET 在处理 Transformer 模型时可能会更快的原因可能有以下几点:

 1、编程语言和运行时性能:

Python 是一种解释型语言,而 .NET 是一种编译型语言。通常情况下,编译型语言的执行速度比解释型语言更快。此外, .NET 运行时也可以进行即时编译(JIT Compilation),将代码编译成本地机器码,提高了执行效率。

2、并行处理和多线程:ML.NET 在处理 Transformer 模型时可以利用 .NET 平台的多线程和并行处理功能,将计算任务分配到多个处理器核心上并发执行,从而加快处理速度。

3、GPGPU 加速:

ML.NET 支持使用图形处理单元(GPU)进行加速。通过使用 CUDA 或其他 GPU 加速库,ML.NET 可以将部分计算任务委托给 GPU 来处理,并发利用 GPU 平行计算的能力,从而加快计算速度。

4、ML.NET 还针对 Transformer 模型进行了一些优化,例如采用了自定义的底层实现,精简了模型的层数和大小,使用量化技术减少模型的内存占用等,这些优化措施也可能会对执行速度产生积极影响。 需要注意的是,具体的性能差异还会受到多个因素的影响,包括具体的模型和数据集、硬件设备等。因此,在具体应用中,最好进行实际测试和性能优化来确定最佳的框架选择。

壁画不多说,直接撸起袖子开干

先新建一个控制台应用程序

右键解决放案,选择机器学习模型

选择ML.Net

这里根据自己的目的,选择合适的训练放案,这里我选择第一个

选择本地

这里选择数据源类型,你们可以选择sqlserver,这里我用于演示,所以选择文件

文件存放的格式如下如果你们选择的也是csv文件,一定注意编码格式,选择utf-8,否则识别的为乱码,你们可以用记事本打开csv文件,然后另存为cav,选择格式为utf-8就可以修改了

列1为文件内容,列2为所属标签( 比如0表示中性词,1表示正向词语,-1表示负向词语)

数据越多,预测结果越精确

 

设置训练时间

训练好后,会回到首页,这里我们点评估,先测试下

输入我们想测试的文字,右侧就会出现预测的结果,百分比越高,说明输入的内容越倾向于此标签

之后可以点击下一步,这里我们选择控制台应用程序,点击“添加到解决放案”,会自动生成对应的项目文件

我们可以做个测试

会输出占比最大的标签显示

 over,你们也可以创建一个webapi,这样其他项目就能直接调用此模型了

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Transformer模型自然语言处理(NLP)中扮演着重要的角色。它在NLP任务中取得了巨大的成功,并成为了许多经典模型的基础和核心组件。 首先,Transformer模型机器翻译任务中取得了突破性的成果。传统的机器翻译模型主要基于循环神经网络(RNN),但由于RNN的顺序计算和梯度消失问题,其对于长距离依赖关系的建模能力受限。而Transformer模型通过自注意力机制,能够更好地捕捉到源语言和目标语言之间的依赖关系,从而取得了更好的翻译效果。 此外,Transformer模型还广泛应用于文本生成任务。它可以通过将输入序列作为上下文信息,结合自注意力机制和解码器来生成连贯、有逻辑的文本。这使得Transformer模型机器作文、对话系统、摘要生成等任务中具有很大的潜力。 在语言理解任务中,Transformer模型也发挥了重要作用。通过预训练和微调的方式,Transformer模型可以学习到丰富的语言表示,从而在文本分类、语义角色标注、命名实体识别等任务中表现出色。 总而言之,Transformer模型自然语言处理中的应用广泛且重要。其通过自注意力机制实现了全局信息的交互和高效并行计算,克服了传统模型在长距离依赖关系建模和效率方面的限制。因此,Transformer模型成为了推动NLP发展的重要技术之一,为各种文本相关任务提供了强大的建模能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值