自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(235)
  • 资源 (9)
  • 收藏
  • 关注

原创 【Flask】获取请求信息、重定向、错误处理

前序文章:我们知道,对于 Web 应用程序,对客户端发送到服务器的数据做出反应至关重要。在 Flask 中,这个信息由全局request对象提供。使用它的第一步则是从flask模块中导入:前面的文章中介绍过,在httpt协议中,一个请求有多种可能,如GET,POST等。我们可以通过来获取。在html端有时我们使用form表单(POST,PUT方法会进行数据请求)去提交数据,那么服务端获取form表单中数据的方式是通过form属性获取。一个简单的案例如下:当key没有在form中时,就会包KeyError

2022-07-02 15:52:14 851

原创 【Flask】静态文件与模板渲染

前序文章:Flask启程与实现一个基于Flask的最小应用程序静态文件主要是web应用中会使用一些图片,css文件,js文件等去实现一个优雅的网页。这也是动态网站不可或缺的内容。那么Flask会为你解决它。用Flask文档来说: Just create a folder called static in your package or next to your module and it will be available at on the application. 也就是说,在项目路径中创建stat

2022-07-01 21:23:10 420

原创 【Flask】Web启程与实现一个基于Flask的最小应用程序

虽然是一名算法工程师,但是实际情况是不仅要懂算法,还要懂工程。算法实现后,算法效果展示,算法落地等就需要一些工程化的内容。算法工程化的一个简单方式就是将落地的算法包装成服务,供他人调用。那么问题来了,我们需要了解一下服务相关的内容。对外提供服务的方式也有多种方式,例如基于GRPC的服务,基于Restful的api接口服务等。当然,我个人感觉使用基于restful的api接口方式是使用比较多的。于是在了解Python web的相关框架,如Django,Flask, FastAPI等,综合考虑使用Flask去

2022-07-01 07:47:37 1083

原创 【Centos7】防火墙(firewall)常用命令总结

涉及到服务开发时难免会与服务器的防火墙打交道。下面总结一下centos7防火墙常用命令。1.查看防火墙状态方法1:方法2:2.开启防火墙:3.设置开机自启:,这个命令在centos7中会经常使用到4.重启防火墙:5.查看防火墙设置开机自启是否成功:6.关闭防火墙:1.开端口命令:打开单个端口:打开多个端口:注: 为永久生效,不加为单次有效(重启失效)2.查看开启端口: 或:3.关闭端口命令:4.查看端口是否打开:当然,删除或增加端口后,建议重启一下防火墙。...

2022-06-30 23:36:26 542

原创 【NLP】预训练模型——GPT1

废话不多说,先把三篇论文链接放出来:GPT1:Improving Language Understanding by Generative Pre-Training、GPT2:Language Models are Unsupervised Multitask Learners、GPT3:Language Models are Few-Shot Learners。李沐老师也在B站上放了介绍GPT模型的视频:GPT,GPT-2,GPT-3 论文精读【论文精读】.首先我们理一下Transformer出现后一些语

2022-06-29 21:45:13 1832

原创 【NLP】自然语言处理任务数据标注利器——doccano

有时我们需要从0-1地去做一项NLP任务,如文本分类,实体识别等。从0开始意味着我们需要自己去标注数据。抛开现在的技术如Zero / Few-shot Learning以及主动学习先不说。我们先考虑找到一个高效的标注数据工具,就是本文的主角——doccano.doccano 是一个供人类使用的开源文本注释工具。它为文本分类、序列标记和序列到序列任务提供注释功能。因此,您可以为情感分析、命名实体识别、文本摘要等创建标记数据。只需创建一个项目,上传数据并开始注释。您可以在数小时内构建数据集。该项目在gith

2022-06-17 23:00:44 2855

原创 【Docker】Centos7 Docker在线安装

docker的基础概念就不多介绍了。一些应用的安装,有了Docker就方便了很多,不用为应用配置相关的环境,并且与物理机之间还是隔离的,不影响宿主机。例如装一个mysql数据库,我们只需要在dockerhub上对应版本的mysql 镜像下载到本地,然后实例化一个容器即可使用了。无需在宿主机配置mysql运行的一些环境等等。本文使用的是一个在virtualbox上的centos7虚拟主机。Dockerr运行在CentOS 7(64-bit)上要求系统为64位,系统内核版本为3.10以上。本文介绍的是在线下载d

2022-06-17 21:37:51 570

原创 【python】*args、**kwargs传参使用总结

随着应对业务的复杂度不断增加,合适的传参方法能够为我们在程序编写中提高很多便利。现在就总结一下python中 * args 和 ** kwargs的使用方式。通常函数或方法的参数个数是固定的,有些参数也可以设定默认值。在有默认值时可以不用传入对应的参数,并且如果不想按照顺序传入参数可以使用参数名来指定对应的参数,一旦开始指定对应的参数,从输入的这个参数开始以后的传入的参数都需要使用参数名的方式传参。例如:* args 和 ** kwargs 则是参数的个数不定的。*args 针对的是顺序类型的不定长参数,

2022-06-17 00:15:35 1215

原创 【Python】清空指定文件夹下所有文件及文件夹删除-shutil

编程常用技巧——清空指定文件夹下所有文件及文件夹删除背景: 删除一个文件夹时,通常的情况是待删除的文件夹里全是文件,那么对于这些文件一个循环就可以删除了(删除文件和删除文件夹的方式不一样哦),但是有时一个待删除文件夹中还有文件夹,那么删除的方法就是递归地去做一件事了。对于Python来说,当然已经有了相关的python自带的包去解决这个问题了,就是python的包。这个包的功能比较多,感兴趣的话可以去官网查看一下官方文档:https://docs.python.org/zh-cn/3/library/shu

2022-06-16 23:44:50 2385

原创 【研究】英文论文阅读——英语poor的研究人员的福利

相信有一批必会“my english is very poor”的同学,在读英文论文的时候很乏力。论文打印下来阅读,一些不知道的单词,不会翻译的句子就需要借助词典,而且翻译起来比较麻烦。如果看电子档的,论文和翻译软件也不在一块,即使翻译之后也不能同论文一同保存下来,还是比较麻烦。为此,今天为存在这些问题的同学推荐一个阅读英文论文的网站:学术范。下面就简要介绍一下该网站的使用方式。当然,这个网站的第一步就是注册,可以在上面的链接注册。就拿我书写的【推荐系统】FM,FFM到DeepFM中的,DeepFM为例。在

2022-06-12 11:13:30 1724 1

原创 【Python】Python调用Java jar包方式 ——Jpype使用

有些时候,项目中已经有现场功能的包,但是相关的包使用Java开发的。为了能够减少Java转Python的时间,我们可以选择用Python调用Java。Python是比较著名的胶水语言,他的特性就这么地显现出来了。本文就以Java使用Jieba分词构建一个jar包,供Python调用来做一个demo。当然为了能够使用Python调用Jar当然少不了这个“胶水”,本文使用的是Jpype。Github地址:https://github.com/jpype-project/jpype。安装方式:.除此之外,因为需要

2022-06-09 23:05:10 4887 4

原创 【推荐系统】FM,FFM到DeepFM

推荐算法通常被用在广告投放而被人们所熟知。但推荐算法却不仅仅只在广告投放上其作用,如基于内容的推荐的博文推荐等。通常推荐算法用来做点击率(Click Through rate, CTR)预估。经典的CTR算法还是需要了解的,例如FM,FFM,DeepFM系列的算法。当然,传统的基于协同过滤的一些算法也有很多可取之处。除此之外,还有融合很多深度学习算法的推荐模型也层出不穷。不过,我们先来了解一下本篇文章的主角:FM,FFM,DeepFM。需要了解一下,在FM之前,传统的线性模型中,使用的数据特征是独立的。实际

2022-06-01 23:13:09 468

原创 【NLP】基于BERT-BiLSTM-CRF的NER实现

背景NER任务毋庸多言,之前也是从HMM,BiLSTM-CRF,IDCNN-CRF一路实现,也看到各个模型的效果和性能。在BERT大行其道的时期,不用BERT做一下BERT那就有点out了,毕竟基于BERT的衍生语言模型也变得更加强悍。不过当前使用BERT+softmax既可以做到非常好的效果,接上BiLSTM以及再使用CRF解码,主要是为了充分理解各层直接的衔接关系等。除此之外,模型在训练过程中需要一些小tricks,如:lr_scheduler,warmup等都需要我们慢慢理解其在背后使用的意义和效果

2022-05-23 17:57:28 2451

原创 【Transformers】BertModel模块的输入与输出

背景通常我们使用bert进行模型fine-tune时,大多是使用Transformer这个包,官方地址:https://huggingface.co/. 如果想使用Bert获取任务对应的动态词向量,那么这时我们就需要了解Bert模型需要的输入与输出了。如果对bert模型不了解的可以看看我之前的文章:【NLP】BERT(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)阅读与总结.BertMod

2022-05-20 23:16:56 19816 4

原创 【NLP】BERT(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)阅读与总结

背景自2019年以来,除了BERT以外,NLP没有什么革命性的进展,当然革命性的进展也不是那么容易出现的。BERT在各NLP任务上取得了sota无不让人惊奇与跃跃欲试。如果你是刚入门NLP,可能BERT中的内容有些难度。前文介绍的【NLP】《Attention Is All You Need》的阅读笔记就是我为书写BERT相关内容做的准备。BERT的论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understan

2022-05-15 17:57:24 1730 1

原创 【NLP】《Attention Is All You Need》的阅读笔记

背景在深度学习领域,如果你连Transformer都不知,那就太out了。现如今基于Transformer的模型,如Bert在NLP的下游的很多任务中都达到了sota。而这个Transformer就出自于这篇论文。虽然是2017年发表的,但是已经被称作是非常经典的论文了。下面继续像以往一样阅读,或者是原文的翻译吧。原文地址:Attention Is All You Need。在了解这个模型时也看到原文和译文的对照:https://yiyibooks.cn/yiyibooks/Attention_Is_Al

2022-05-14 21:51:48 1078 1

原创 【NLP】Seq2Seq与Attention(Neural Machine Translation by Jointly Learning to Align and Translate)回顾

背景Seq2Seq可以使用统计的方式、规则的方式去应对。在印象中,Attention的出现也是从Seq2Seq任务中出现的,在论文:Neural Machine Translation by Jointly Learning to Align and Translate中发表,可以看看该论文中的section2、section3.具有注意力的 Seq2seq 模型的机制这部分参考了文章:Visualizing A Neural Machine Translation Model (Mechanics

2022-05-09 21:31:06 449

原创 【NLP】基于Pytorch的IDCNN-CRF命名实体识别(NER)实现

背景前文介绍了【NLP】命名实体识别——IDCNN-CRF论文阅读与总结,【NLP】基于Pytorch lightning与BiLSTM-CRF的NER实现 也实现了相关模型。在GitHub看了一圈,IDCNN基本上都是Tensorflow实现了,现在我来实现一波,看看效果。源码已经上传到我的GitHub上:https://github.com/Htring/IDCNN-CRF_NER_PL,有兴趣的看以瞅瞅哦。数据来源本程序数据来源于:https://github.com/luopeixiang/n

2022-05-08 10:36:22 1823 1

原创 【NLP】命名实体识别——IDCNN-CRF论文阅读与总结

背景之前写过使用Bi-LSTM-CRF模型进行NER任务,但在实际工程中当要考虑速度时还会考虑这个模型——IDCNN-CRF模型。因为我们知道,LSTM模型序列化模型,即后面的输入依赖于前面的结果,无法做到并行化,无论是模型训练还是模型推理,在速度上IDCNN都有很大的优势,并且这两个模型的效果非常接近。IDCNN论文地址:Fast and Accurate Entity Recognition with Iterated Dilated Convolutions. 原论文不详细介绍了,就对该论文做一个总

2022-05-08 09:03:07 3087 3

原创 【研究】paperswithcode——一个查找计算机相关领域论文及对应源码的好助手

背景最近一段时间看了不少与文本匹配相关的论文,主要是从这个网站:https://paperswithcode.com/。对于一些老司机来说,这个可谓是科研必备的一个网站,而对于新手来说则不一定了解。我用这个网站最多就是查找自然语言相关领域最新的sota论文,以及一些认为解决的以往论文。看完论文后,如果有源码的话,就阅读一下源码,学习一下。下面我们来看一下这个神奇的网站。sotasota即State-of-the-Art的缩写,即当前最先进的方法。在sota页面中,我们可以看到有很多领域,如:c

2022-05-07 23:24:53 2618

原创 【NLP】文本匹配——Simple and Effective Text Matching with Richer Alignment Features(RE2)模型实现

背景前文:【NLP】文本匹配——Simple and Effective Text Matching with Richer Alignment Features阅读与总结(RE2)已经简要地介绍了RE2的原理,下面就参照着原文以及网上的开源代码进行该模型的复现。为了能够验证模型是否复现成功,并且我更偏向做中文的相关任务,对比开源项目:https://github.com/zhaogaofeng611/TextMatch在对应数据的复现结果,其在测试集上的ACC为:0.8391.原文整体来说介绍相对简单

2022-05-05 22:11:58 663

原创 【Pytorch】取反操作符~在Pytorch和python中使用的比较

python中的取反操作在python中取反操作符~是对数字的二进制位进行取反,然后返回取反结果对应的十进制数字。这个可以参考:Python3运算符使用案例如下:num = 60# 查看二进制print(num, bin(num)) # 60 0b111100num_ = ~num # -(x + 1) print(num_, bin(num_)) # -61 -0b111101细心的会发现,经过~处理后的结果并不是对应位置为相反关系。这就需要了解计算机是如何存储负数的了,负数通常是

2022-05-03 15:51:09 4574

原创 【Pytorch】torch.Tensor.masked_fill()

官方文档:https://pytorch.org/docs/stable/generated/torch.Tensor.masked_fill.html?highlight=torch%20masked_fill#torch.Tensor.masked_fill该张量方法使用方法与torch.Tensor.masked_fill_()类似,其官方文档:https://pytorch.org/docs/stable/generated/torch.Tensor.masked_fill_.html#torch

2022-05-03 14:09:26 1417

原创 【NLP】文本匹配——Enhanced LSTM for Natural Language Inference算法实现

背景前文【NLP】文本匹配——Enhanced LSTM for Natural Language Inference阅读与总结已经介绍了ESIM的相关原理。下面我们来复现一下这篇文章的代码。代码已上传GitHub:https://github.com/Htring/ESIM_Text_Similarity_PL。有兴趣的可以看看源码。当然本代码也参考了:https://github.com/coetaur0/ESIM程序。该项目也为ESIM绘制了比较漂亮的图片,来看看模型架构,熟悉一下模型就开始书写模型

2022-05-01 11:37:26 1177

原创 【Pytorch】torch.nn.Conv1d()理解与使用

官方文档:https://pytorch.org/docs/stable/generated/torch.nn.Conv1d.html?highlight=nn%20conv1d#torch.nn.Conv1d作用:对由多个输入平面组成的输入信号应用一维卷积。在最简单的情况下,输入大小为 (N,Cin,L)(N, C_{\text{in}}, L)(N,Cin​,L) 和输出$ (N, C_{\text{out}}, L_{\text{out}})$可以精确地描述为:out(Ni,Coutj)=bia

2022-04-30 18:07:30 2297

原创 【Pytorch】torch.permute()使用

官方文档:https://pytorch.org/docs/stable/generated/torch.permute.html?highlight=torch%20permute#torch.permute形式:torch.permute(input, dims) → Tensor作用:返回原始张量输入的视图,其尺寸已置换。参数:input (Tensor) – the input tensor.dims (tuple of python:ints) – The desired orderi

2022-04-29 19:17:00 1264

原创 【Pytorch】torch.cat()使用

官方文档:https://pytorch.org/docs/stable/generated/torch.cat.html?highlight=torch%20cat#torch.cat形式:``torch.cat(tensors, dim=0, *, out=None) → Tensor`作用:连接给定维度中给定的 seq 张量序列。所有张量必须具有相同的形状(连接维度除外)或为空。torch.cat() 可以看作是 torch.split() 和 torch.chunk() 的逆运算。参数:

2022-04-29 19:10:37 531

原创 【Pytorch】torch.Tensor.view()使用

官方文档:https://pytorch.org/docs/stable/generated/torch.Tensor.view.html?highlight=torch%20view#torch.Tensor.view形式:Tensor.view(*shape) → Tensor作用:返回一个新的张量,其数据与自张量相同,但形状不同。说明:返回的张量共享相同的数据,并且必须具有相同数量的元素,但可能具有不同的大小。当不清楚是否可以执行 view() 时,建议使用 reshape(),如果形状兼容则

2022-04-27 23:51:46 1610

原创 【NLP】文本匹配——Simple and Effective Text Matching with Richer Alignment Features阅读与总结(RE2)

背景前文已经介绍了【NLP】文本匹配——Enhanced LSTM for Natural Language Inference,其实2017年发表的,文中使用了两个LSTM进行特征提取,总的来说参数多,速度慢,还不能并行处理。今天我们再来看看阿里巴巴和南京大学发表的在2019年发表的一篇文本匹配论文:Simple and Effective Text Matching with Richer Alignment Features,其主要是使用CNN进行特征提取,支持了并行化处理以及参数也少了很多。具体怎

2022-04-25 23:52:29 455

原创 【Pytorch】torch.Tensor.expand_as()与torch.Tensor.expand()使用与比较

torch.Tensor.expand_as官方文档地址:https://pytorch.org/docs/stable/generated/torch.Tensor.expand_as.html?highlight=expand_as#torch.Tensor.expand_astorch.Tensor.expand()官方文档地址:https://pytorch.org/docs/stable/generated/torch.Tensor.expand.html#torch.Tensor.expand

2022-04-24 23:43:26 458

原创 【Pytorch】torch.index_select()方法使用

官方文档地址:https://pytorch.org/docs/stable/generated/torch.index_select.html?highlight=torch%20index_select#torch.index_select形式:torch.index_select(input, dim, index, *, out=None) → Tensor作用:返回一个新张量,该张量使用索引中的条目沿维度 dim 索引( LongTensor)输入张量。返回的张量与原始张量(输入)具有相同的

2022-04-23 21:47:11 2478

原创 【Pytorch】torch.sort()方法使用

官方文档地址:https://pytorch.org/docs/stable/generated/torch.sort.html?highlight=sort#torch.sort形式:torch.sort(input, dim=- 1, descending=False, stable=False, *, out=None)作用:沿给定维度按值升序对输入张量的元素进行排序。如果没有给出 dim,则选择输入的最后一个维度。如果descending 为True,则元素按值降序排序。如果 stable 为

2022-04-23 21:33:23 1899

原创 【推荐系统】逻辑回归(LR)在推荐系统中的使用

背景相比于传统的协同过滤,矩阵分解算法,在推荐系统中逻辑回归(Logistic Regression ,LR)模型能够综合用户信息、物品、上下文等多种不同的特征,效果也会更好。我们知道逻辑回归是一个分类模型,那么自然而然地会将推荐系统问题进行相关的转换,分类过程中会对目标类别有一个打分,然后根据打分结果进行排序得到推荐的结果。选用的正样本可以是用户“点击”的某个商品,用户“观看”的某个视频等等。这时就出现了我们经常见到的名词:点击率(Click Through Rate, CTR)预估。下面就来看看如何结

2022-04-23 16:12:49 2763

原创 【Pytorch】Tensor.contiguous()使用与理解

官方文档地址:https://pytorch.org/docs/stable/generated/torch.Tensor.contiguous.html?highlight=torch%20contiguous#torch.Tensor.contiguous形式:Tensor.contiguous(memory_format=torch.contiguous_format) → Tensor作用:返回一个连续的内存张量,其中包含与自张量相同的数据。如果 self tensor 已经是指定的内存格式,则

2022-04-19 07:53:59 1457

原创 【Pytorch】torch.bmm()方法使用

官方文档地址:https://pytorch.org/docs/stable/generated/torch.bmm.html?highlight=bmm#torch.bmm形式:torch.bmm(input, mat2, *, out=None) → Tensor作用:矩阵的批量相乘,支持TensorFloat32数据的操作。要求:input 和 mat2 必须是 3-D 张量,每个张量都包含相同数量的矩阵。如果input的维度是(b×n×m)(b\times n\times m)(b×n×m),

2022-04-18 23:45:39 1622

原创 【NLP】文本匹配——Enhanced LSTM for Natural Language Inference阅读与总结

背景这篇论文是来自于 ACL 2017,论文地址:https://arxiv.org/abs/1609.06038.首先了解一下什么是, Natural Language Inference,自然语言推理。根据Natural language inference上的介绍:Natural language inference is the task of determining whether a “hypothesis” is true (entailment), false (contradictio

2022-04-17 17:40:51 1055

原创 【NLP】非监督文本匹配算法——BM25 Python实现

算法原理与程序使用BM25算法原理参见我的博文:【NLP】非监督文本匹配算法——BM25,代码已上传至Github:https://github.com/Htring/BM25,有兴趣的可以查看源码。测试程序:bm25 = BM25()result = bm25.cal_similarity("自然语言处理并不是一般地研究自然语言")for line, score in result: print(line, score)测试结果如下:自然语言处理是计算机科学领域与人工智能领域中的一

2022-04-17 09:40:10 2116 2

原创 【NLP】非监督文本匹配算法——BM25

背景在信息搜索中,我们做的第一步就是检索。对于文本检索中,第一步就是数据库中的内容与检索的内容进行匹配,符合匹配要求的话就根据相关业务处理。在NLP中,我们可以认为是要让机器去理解检索内容,然后从现有数据库中返回对应内容。从这看文本匹配就是NLU(Nature Language Understand ,自然语言理解)中的核心内容了。再延展一下,搜索这项功能在我们生活中也是太多太多。大众一点就是搜索引擎,商品搜索等,在问题系统中可以匹配相似的问题,然后返回对应答案等。文本匹配包括监督学习方法以及非监督

2022-04-16 22:43:29 2688

原创 【NLP】基于Pytorch lightning与BiLSTM-CRF的NER实现

背景前文已介绍了BiLSTM+CRF进行序列标注的理论内容,参见:【NLP】基于BiLSTM-CRF的序列标注,也做了:【NLP】基于隐马尔可夫模型(HMM)的命名实体识别(NER)实现。下面来看看如何使用Pytorch lightning书写BiLSTM-CRF来进行命名实体识别。本程序代码已上传github:https://github.com/Htring/BiLSTM-CRF_NER_PL。本程序使用的Python程序包,主要如下:python 3.7pytorch 1.10,pytor

2022-04-16 17:41:50 1607 3

原创 【NLP】基于BiLSTM-CRF的序列标注

背景命名实体识别(named entity recognition, NER)现在如今使用最多的算法当属深度学习。当Bert还没出现时,序列标注的天下则是BiLSTM-CRF的天下。使用BiLSTM-CRF比较早的论文是来自于百度的:Bidirectional LSTM-CRF Models for Sequence Tagging.除此之外还有:Neural Architectures for Named Entity Recognition等论文 。前文的基于HMM进行序列标注只是引入序列标注的基本

2022-04-10 17:13:32 1343

GitHub_1.20.0_apk-dl.com.apk

安卓版github

2021-10-28

latex代码显示文档.zip

latex使用minted和lstlisting代码高亮显示的英文文档,相关文档也可在“AIAS编程有道”订阅号中回复“latex代码显示文档”即可获取。

2020-02-29

jieba分词jar包

该文件是jieba分词jar包,其中包括主要的jar包,源码,文档等。

2019-04-02

常用6722个繁体简体mysql数据库

将常用的6722个简体汉字与繁体汉字存储到数据中,在数据库中的存储格式如下: id,jt,ft 这里的id是指当前简体和繁体的序号,jt指简体字,ft指繁体子

2018-11-25

常用6722个繁体简体对照表

常用繁体简体汉字对照表,以txt存储,文件内容如下: ...

2018-11-25

wxPython4.0 api && doc

使用python做UI也是不错的,这是收集了官方文档,供学习交流使用

2018-05-31

wxPython 中文学习资料

使用python做UI也是必将对的,这是收集了wxPython中文资料,供学习交流使用

2018-05-31

用java调用python

java在web程序具有很大的优势,然而在科学计算,机器学习等领域中不如python,使用java调用python就是为了能够使得一个问题能够更好的解决。

2018-03-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除