自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(47)
  • 资源 (14)
  • 问答 (2)
  • 收藏
  • 关注

原创 Zookeeper入门基础知识整理

Zookeeper基础知识整理

2022-05-12 17:57:30 928

原创 你知道JDK9 为何要将 String 的底层实现由 char[] 改成了 byte[]吗 ?

你知道JDK9 为何要将 String 的底层实现由 char[] 改成了 byte[]吗 ?

2022-03-25 11:27:49 461

原创 新时代程序员需要掌握的四种Java操作

新时代程序员需要掌握的四种Java操作,以及一些操作。

2022-02-23 15:19:09 362

原创 并发编程之线程池的参数 源码解析 带你了解Executor的使用

并发编程之线程池的参数 源码解析 带你了解Executor的使用

2022-02-10 18:00:03 259

原创 并发编程中Synchronized锁的七个问题 带你了解锁的究竟是谁

锁能锁的东西只有两个,一个是new出来的对象, 另一个是Class模板

2022-01-19 17:59:34 2518

原创 学习JDK源码之IDEA源码导入(附赠调试后的源码)

导入源码首先是创建一个普通的Java项目。这时候会选择JDK ,你要知道这JDK在本地的安装地址稍后会用到项目创建成功以后创建两个Package,一个用来放JDK源码,一个用来测试找到我们本地的JDK,找到里面 src.zip这个压缩包,里面装的是我们jdk的源码,把这个压缩包放到我们项目中的源码目录中并解压解压后项目结构如图修改配置然后对IDEA进行一些设置,把这个功能去掉,这样在调试代码的时候,程序会进入到JDK里面去,这样就可以看到JDK的运行流程了增加IDEA编译所需堆内存,

2021-10-18 10:46:05 1056

原创 乱写Spring源码之程序启动和自动注入。

到底是什么

2021-09-22 15:39:47 140

原创 docker-compose.yml中environment的参数详情(以zookeeper集群为例)

Compose 是一个用于定义和运行多容器 Docker 的工具。借助 Compose,我们可以使用 YAML 文件来配置应用程序的服务。在我们配置yml的时候,每个容器都需要配置一些必须的内容。其中environment就是容器中比较常用的一个参数,它主要是用来配置容器中程序所需要配置的一些参数。下面就拿zookeeper集群为例来说明。version: '3.7'# 配置zk集群的# container services下的每一个子配置都对应一个zk节点的docker containers

2021-08-31 14:55:00 16635

原创 Spring boot框架 使用aop做日志记录

创建Spring boot项目并集成Spring web框架,并在pom.xml中在加入Spring-aop的依赖。因为Spring boot中集成了logback日志,所以就不用在加入日志的依赖。只需要在application.properties中配置下日志的位置就可以,我是把日志放在了项目里面便于查看。logging.file.path=log/blog-dev.log //日志存放地址 <!-- aop的依赖--> <dependency>

2021-08-10 16:40:27 118

原创 Spring boot框架自定义拦截器做安全验证

一 创建项目创建一个Sping Boot项目 并且在创建的时候集成Sping Web。目录结构如图所示。二 自定义拦截器拦截器拦截的对象是当页面跳转的时候查看session是否存在,例如只有用户在登录以后才可以访问自己的主页,所以当页面直接跳转到用户主页的时候会判断有没有这个用户的信息,如果有则通过,如果没有则拦截并跳转到程序设置的页面package com.example.taskaop.interceptor;import org.springframework.web.servlet.H

2021-08-10 16:02:57 216

原创 Json的总结和Fastjson的简单使用

什么是Json?JSON(JavaScript Object Notation, JS 对象简谱) 是一种轻量级的数据交换格式。 采用一种“键:值”对的文本格式来存储和表示数据在前后台的交互中,通常要互相传递消息,那就需要一种两方面都能“听懂的语言”,数据格式这里就代表语言。JSON就是前后台中都能理解的一种“语言”。Json的类型:一种是JSON对象{ "name" : "波波", "age" : 20, "sex" : null}1:数据在花括号中2:数据以

2021-03-15 18:16:00 119

原创 java类加载器 双亲委派机制

类加载的过程  在写程序的时候,我们编写的都是.java格式的文件,但我们程序运行的都是.class格式的文件,这是因为在程序运行的时候编译器会自动的将的.java文件编译成JVM可以识别的.class文件。例如IDEA,当我们第一次运行Java程序的时候,就会生成一个Target文件夹,里面的都是.class文件而且跟我们编写的.java文件是相对应的。在Javay语言中,类的加载是动态的,它并不会一次性将所有的类全部加载后再运行,而是保证程序运行的基础类(例如基类)完全加载到JVM中,至于其他类,当需

2021-03-08 11:41:15 129

原创 Java集合的详细总结

一 什么是集合集合是java中提供的一种容器,可以用来存储多个数据。二 集合和数组的关系集合和数组都是容器,都是用来存储数据的数组的长度是固定的。集合的长度是可变的。数组中存储的是同一类型的元素,可以存储基本数据类型值。集合存储的都是对象。而且对象的类型可以不一致。在开发中一般当对象多的时候,使用集合进行存储三 集合的分类集合按照其存储结构可以分为两大类,分别是单列集合java.util.Collection和双列集合java.util.Map。四 单列集合扩展:Set集合数据不可重

2021-03-02 10:56:34 96 2

原创 我在实习中用到的Mysql函数

2021/2/22 17:52:34 2021/2/22 17:52:35 2021/2/22 17:52:36 2021/2/22 17:52:371、SpringCloud入门概述1.1 SpringCloud是什么springcloud官网: https://spring.io/projects/spring-cloud#learn[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uzzKYKVg-1613987589593)(D:\文件\markdown\

2021-02-24 16:51:09 97

原创 Mysql的引擎、索引和事务的四大特性(ACID)

Mysql的数据库引擎什么是存储引擎?  数据库存储引擎是数据库底层软件组件,数据库管理系统使用数据引擎进行创建、查询、更新和删除数据操作。不同的存储引擎提供不同的存储机制、索引技巧、锁定水平等功能,使用不同的存储引擎还可以获得特定的功能。  MySQL的核心就是存储引擎。  Mysql数据库支持的引擎有哪些?  MySQL 5.7 支持的存储引擎有 InnoDB、MyISAM、Memory、Merge、Archive、Federated、CSV、BLACKHOLE 等InnoDB 事务型数

2021-02-22 11:27:27 423

原创 正则表达式匹配两个字符串之间的内容

匹配两个字符串之间的内容,不包含这两个字符串(?<=(dsaa)).*?(?=(lsdasd))匹配两个字符串之间的内容,不包含右边的字符串(dsaa).*?(?=(lsdasd))匹配两个字符串之间的内容,不包含左边的字符串((?<=(dsaa)).*?(lsdasd)...

2020-12-28 18:12:59 10346 1

转载 淘宝 从一百个到千万级别并发情况下服务端的架构的演进过程

1. 概述本文以淘宝作为例子,介绍从一百个到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知,文章最后汇总了一些架构设计的原则。特别说明:本文以淘宝为例仅仅是为了便于说明演进过程可能遇到的问题,并非是淘宝真正的技术演进路径2. 基本概念在介绍架构之前,为了避免部分读者对架构设计中的一些概念不了解,下面对几个最基础的概念进行介绍:分布式系统中的多个模块在不同服务器上部署,即可称为分布式系统,如Tomcat和数据库分别部署在不同的服

2020-12-16 09:03:10 224

原创 Windows下kafka生成消费者报错:Missing required argument “[zookeeper]“

.\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic kafka-test-topic --from-beginning上面的语句就是在Windos下 kafka生成消费者的命令行,这命令行是我从百度上找的,但一直是报错。仔细看报错是缺少一个参数–zookeeper,然后我W3Cshool关于kafka的教程上看到Linux系统下生成消费者的命令行。如下:bin/kafka-console-consumer.sh.

2020-12-03 15:54:09 4389

原创 Mybatis的两种配置方法和知识

一 环境准备IDEA 2020.2.3JKD14Maven工程Mysql数据库mysql> CREATE TABLE `user` ( `id` int(11) NOT NULL auto_increment, `username` varchar(32) NOT NULL COMMENT '用户名称', `birthday` datetime default NULL COMMENT '生日', `sex` char(1) default NULL COMMENT '

2020-11-07 11:32:56 1047

原创 python爬虫--漂亮小姐姐的照片

网址:煎蛋随手拍函数库:requests bs4 lxml(这几个是需要你pip)声明:爬取的图片仅供学习 不做其他用途!!一 :找到图片的连接进入网站以后你会看到有80页的图片,然后我们检查网页源代码,通过查找我们很容易就能找到链接的位置通过下面的代码把图片的链接保存到list里面。def get_content_page(html): try: soup = BeautifulSoup(html,"lxml") div = soup.

2020-10-15 15:27:09 769 1

原创 基于学者网信息和知识图谱的智能问答系统

知识图谱 之 python 操作neo4j (导入CSV操作)知识图谱之python操作Neo4j导入CSV构建复杂的知识图谱基于python的Django框架和Neo4j的知识图谱可视化大家可以先看看这几篇文章 在这里面我已经把我们需要的知识图谱给构建好了。然后就是我们的问答环节。因为我们构建的知识图谱就是基于学者网上面的学者信息,所以我们的问答系统也只能回答关于学者网上学者的信息问题。而我们构建的图谱获取的信息有姓名,学位,研究方向,所在学校这四类信息。所以我们只要能从用户所问的问题中提取到关键词

2020-10-03 11:25:19 1718

原创 Tensorflow2.0之CRF的下载

近期想用Tensorflow2.0版本做一个BiLSTM+CRF的实体识别,在Tensorflow1.x的版本中 contrib模块中有CRF,可是发现Tensorflow2.0把contrib模块去掉了。后来在网上翻了一些资料查到CRF还在测试和更新。有一个包叫tensorflow_addons 在这个里面有集成CRF。GitHub 这是连接。然后我使用 pip install tensorflow_addon 发现可以下载 下载成功以后我试着导入了一下发现完全可以导入进来,至于其效果好不好等用过

2020-09-17 21:41:27 1135 2

原创 基于python的Django框架和Neo4j的知识图谱可视化

上两篇文章我已经写了怎么用python在Neo4j中构造知识图谱。大家可以先看下这两篇文章。知识图谱 之 python 操作neo4j (导入CSV操作)知识图谱之python操作Neo4j构建复杂的知识图谱通过上面两篇文章我们已经能从pyhon中操作Neo4j图形数据库了。下面就是要想办法把Neo4j中的知识图谱显示在前端页面上。首先我们要会Django框架把前端页面显示出来。至于怎么搭建Django框架和显示网页我就不多说了,毕竟东西太多而且也不是今天的主要内容。直接展示一下搭建好的成果。网页

2020-09-16 15:56:12 21456 29

原创 python怎么在键盘上一次输入多个整数

s= list(map(int,input().split(" ")))input() 接收用户输入的数据,数据为字符串格式。str.split(” ") 把字符串以某中特定的格式分开,这里是用空格划分。map():这里就是把从键盘上获得的数据全都转化成Int型map(function, iterable, …)function – 函数iterable – 一个或多个序列list():把map格式的数据存放到listl里面。...

2020-09-14 19:20:50 8480 1

原创 知识图谱之python操作Neo4j导入CSV构建复杂的知识图谱

大家如果对python操作Neo4j导入CSV并不是很熟悉的话,可以先看看这篇文章有个大概的操作基础。传送门大家看过上篇文章应该知道,我们最后构建出来的知识如下图所示,但很明显可以看出来华南师范大学这个节点应该只有一个,应该让所有属于华南师范大学的人物都连接在唯一的节点上而不是每个人物都有属于它自己的节点。这样才会使得我们的图谱更加的紧凑。数据源这是本次构建知识图谱的CSV格式的数据源,这是在上次数据的基础上截取了一小部分并且对数据的内容进行了一定的修改便于大家看的更加明显(图中数据信息均为乱改 不

2020-09-05 18:16:38 12381 22

原创 知识图谱 之 python 操作neo4j (导入CSV操作)

使用python操作neo4j首先我们要先安装一个库 :pip install py2neo安装py2neo后我们可以使用其中的函数对neo4j进行操作。首先我们要知道 Neo4j是图数据库。其中最重要的就是结点和边(关系),结点之间靠边联系在一起,每个结点也有属于自己的属性。也就是说我们在用pyhton操作Neo4j的时候只需要创造出节点(Node )和边(Relationship ),如果有需要可以再给结点附上一些属性。注意: 在我们用python的时候我们必须启动Neo4j 如图所示

2020-09-03 19:30:13 17692 13

原创 Tensorflow2.0之Bert模型实例 实体命名识别(NER)

关于Tensorflow2.0版本的Bert模型 我在网上找了很久也没找到。大家应该都知道Bert模是用了Transformer模型的Encoder部分。并且我找到了Tensorflow2.0版本下的Transformer模型而且还做了个中英翻译所以我就把Tansformer模型稍微该了下,把Decoder部分去掉只剩下Encoder部分,并找了一些数据做了一个实体命名识别的例子。最后模型训练完准确度在86%左右,我感觉还可以就拿出来分享下。但这不一定完全正确如有不对希望大家指正。数据预处理数据预处理大

2020-08-28 10:05:14 2714 3

原创 Tensorflow2.0 继续训练自己未训练完的模型(tf.train.Checkpoint())

在我们使用tensorflow做深度学习的时候,需要用大量的数据来训练模型。但正因为数据量大如果电脑的性能不是很好的话在训练模型的时候我们的电脑是没有剩余的内存供我们使用的,但模型训练又需要花费很多时间,如果我们需要用电脑做其他事情的话就必须停止训练模型,但停止以后再重新开始从头训练的话又会花费很多的时间,所以我们要在停止训练时保存的模型参数的那个阶段继续我们的训练。模型保存首先我们要知道要想继续我们的训练就必须保存好我们之前训练好的模型参数,这样我们的程序才能使用现有的参数继续来训练模型而不是再随机生

2020-08-23 12:06:46 7302 1

原创 Tensorflow2.0 实体命名识别的数据预处理

最近要做一个使用Tensorflow2.0版本的Bert模型,从GitHub上找到了谷歌公司的Bert模型但是不支持2.0的版本,所以还要自己动手改下。今天先把数据集准备好,做好数据的预处理等这两天再把模型做好就可以直接运行了。数据展示数据的格式如图所示。每个字都有自己的实体属性,每个字之间用空格隔开,每句话用句号隔开。通过数据的预处理,我们要把数据分成两部分,一部分是数据 格式为[batch_size,word_len],一部分是它的属性也就是标签[batch_size,word_len]。其实这就相

2020-08-21 11:17:57 1051 1

原创 tensorflow2.0之 Transformer模型实例 中英翻译。

数据集的准备用的数据集都是我从网上下载的,而且数据集的预处理我之前已经写过一篇文章了,大家可以看那个文章从那里可以下载到数据集和预处理的代码。中英翻译对数据集的预处理。Transorflow模型代码这个模型是从GitHub获取的官网代码,不需要怎么改动。接下来我就简单的讲下每部分代码都起到了什么作用,至于为什么要用到这些代码和这些代码主要是干什么的?大家可以看看我转载的这篇文章,模型中的代码在这篇文章中都有讲到。一. 位置编码我们知道Transorflow优势就是不受时间和空间上的限制。它

2020-08-11 23:34:12 3488 9

原创 Tensorflow2.0之tfds.features.text.SubwordTextEncoder.build_from_corpus()

tfds.features.text.SubwordTextEncoder.build_from_corpus() Tensorflow官网解释# Buildencoder = tfds.features.text.SubwordTextEncoder.build_from_corpus( corpus_generator, target_vocab_size=2**15)encoder.save_to_file(vocab_filename)# Loadencoder = tfds.f

2020-08-09 23:47:08 2274 4

原创 tensorflow2.0 中英翻译 对文本的预处理(文本转换为文本向量 tfds.features.text.SubwordTextEncoder.build_from_corpus)

近期在学习Transformer模型。想用这个模型做一个中英翻译的小项目。Transformer模型是Github上下载下来的模型。该模型已经搭建完成。只需要我们把自己的数据输入进去就可以。而模型需要的文本格式为[batch_size,word_length],所以要把我们的文件格式转换成模型可以接受的格式。读取文本先来看下我们的文本格式。如下图所示,我们只需要下面的文本的前两列,并把它们放到list里面如图所示:把数据转化为subwords格式把数据转化为subwords格式。既每个单词和每

2020-08-09 23:28:24 2226 1

原创 tensorflow_datasets 怎么导入本地数据集 ted_hrlr_translate/pt_to_en

因为这几天正在学习Transformer模型,所以想用tensorflow_datasets中自带的一个数据集做个小实例,也就是葡萄牙和英语翻译的数据集。examples, metadata = tfds.load('ted_hrlr_translate/pt_to_en', with_info=True,as_supervised=True)如果你用这行代码在你的编译器里下载的话,那是非常的慢的。所有我找到了数据的源头把它下载到了本地。可以从它的Github上下载。如果用迅雷下载的话要要稍微快一点。

2020-08-05 17:43:37 3551 1

转载 Transformer模型详解

简介Attention Is All You Need是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。Transformer总体结构和seq2seq模型一样,Transformer模型中也采用了 encoer-decoder 架构。但

2020-08-02 23:20:58 1158

原创 简单理解self-attention和attention以及计算过程

什么是attention以seq2seq框架为例,输入Source和输出Target内容是不一样的,比如对一件商品的评价和总结来说,Source是一个对一件商品好评或差评的句子,Target是对应的评价的总结,Attention发生在Target的元素Query和Source中的所有元素之间。attention主要应用在seq2seq+attention中,具体的seq2seq+attention模型和实例可以看这个:tensorflow2.0之seq2seq+attention模型和实例attent

2020-08-01 00:41:09 1653

原创 Tensorflow2.0 之 pad_sequences()序列填充

为了实现的简便,keras只能接受长度相同的序列输入。因此如果目前序列长度参差不齐,这时需要使用pad_sequences()。该函数是将序列转化为经过填充以后的一个长度相同的新序列新序列。tf.keras.preprocessing.sequence.pad_sequences( sequences, maxlen=None, dtype='int32', padding='pre', truncating='pre', value=0.0)参数讲解:sequences :序列列

2020-07-25 18:35:34 2710

原创 tensorflow2.0之seq2seq+attention模型和实例

什么是seq2seqSeq2Seq模型是输出的长度不确定时采用的模型,这种情况一般是在机器翻译的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了。除了机器翻译像人机对话,情感分类等都可以用到seq2seqseq2seq 是一个Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列, Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列。

2020-07-25 18:22:09 3901 4

原创 Tensorflow2.0 利用LSTM和爬虫做自动生成七言律诗

从古诗网上获取七言律诗。从网上随便找了一个古诗网 把该网站上的七言律诗爬取过来,该网站上也有五言律诗但没有把它们一起爬取下来做为数据来源,因为它们的文本长度不一样,如果把它们混在一起的话要对五言律诗进行填充,使得它们的长度一样,但这样会使得古诗的意义发生改变,学习的效果会减弱所以只学习七言律诗。def get_poems(): r = requests.get('http://www.gushicimingju.com/gushi/qiyanjueju/') r.encoding = '

2020-07-12 10:49:27 2466

原创 Tensorflow2.0使用CNN和爬虫做新闻分类

重温Tensorflow2.0框架所做的一个小项目,写下来分享一些。写的可能不是太好,如果有错误还请指正。利用爬虫技术获取新浪网新闻利用爬虫技术获取到了新浪网中两类信息。一类是科技方面的,一类是NBA每一类都获取了1200条左右的信息。做一个二分类任务。对获取的文本做预处理1.把获取到的新闻存到excel文档中并读取文档,在读取文档的同时过滤掉停用词,因为获取新闻的时候有些信息是新闻的固定格式对文本分析没有意义,例如:北京时间,新浪网,作者等这些词语每个新闻里面都有所以去掉这些没有用的词语和一些

2020-07-06 10:37:08 828 1

原创 Tensorflow2.0之 tf.keras.layers.MaxPool1D()

参数展示: 来自tensorflow2.0的APItf.keras.layers.MaxPool1D( pool_size=2, strides=None, padding='valid', data_format='channels_last', **kwargs)x = tf.constant([1., 2., 3., 4., 5.])x = tf.reshape(x, [1, 5, 1])max_pool_1d = tf.keras.layers.MaxPooling1D(

2020-07-05 11:28:52 2270

LearnJDK.zip

java的JDK源码,代码已调试完毕可直接导入到IDEA中进行编译 https://blog.csdn.net/weixin_43788143/article/details/120717930(代码调试过程文章)

2021-10-18

Tensorflow2.0 Bert模型.rar

tensorflow2.o Bert模型 NER

2020-08-28

Tensorflow2.0 Transformer模型中英翻译.rar

tensorflow2.0版本 Transformer模型 中英翻译

2020-08-28

Tensorflow2.0 Bert模型NER 数据预处理.rar

tensorflow2.0 对实体命名识别的数据预处理 1

2020-08-20

tensorflow2.0 中英翻译 对文本的预处理(文本转换为文本向量 tfds.features.text.SubwordTextEncoder.build

把中英文翻译的数据 转化为模型可以接受的格式

2020-08-09

cmn-eng.zip

一个中英翻译的数据。

2020-08-09

qi18naacl-dataset.tar.gz

tensorflow_datasets自带的一个翻译数据集 ted_hrlr_translate/pt_to_en

2020-08-05

Transformer.ipynb

tensorflow2.0 版的transformer模型代码

2020-08-05

seq2seq实例代码.rar

tensorflow2.0之seq2seq+attention模型和实例

2020-07-25

kenlm.tar.gz

kenlm模型

2020-07-12

维基百科.rar 繁体转简体 分词 去英文

下载维基百科文档 利用opencc把繁体转化为简体 并去停用词 去里面夹杂的英语

2020-07-03

torch-1.5.1+cpu-cp36-cp36m-win_amd64.whl

下载有只需 pip install torch-1.5.1+cpu-cp36-cp36m-win_amd64.whl 就行

2020-06-20

深度学习之卷积神经网络

卷积神经网络(Convolutional Neural Networks, CNN)是一类包含[卷积](https://baike.baidu.com/item/卷积/9411006)计算且具有深度结构的[前馈神经网络](https://baike.baidu.com/item/前馈神经网络/7580523)(Feedforward Neural Networks),是[深度学习](https://baike.baidu.com/item/深度学习/3729729)(deep learning)的代表算法之一。

2020-03-27

推荐系统基本理论和思路

推荐系统是利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。

2020-03-26

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除