- 博客(48)
- 资源 (1)
- 收藏
- 关注
原创 LibreOffice安装过程
3、 进入RPMS目录下cd /opt/libreoffice7.1/LibreOffice_7.1.0.2_Linux_x86-64_rpm/RPMS。2、 解压tar -zxvf LibreOffice_7.3.5_Linux_x86-64_rpm.tar.gz。4、 安装rpm文件 rpm -Uivh *.rpm --nodeps。6、激活环境配置source /etc/profile。5、添加到环境变量vim /etc/profile。
2024-01-24 11:23:13
853
原创 【无标题】
详细配置neo4j网址:https://blog.csdn.net/m0_66225353/article/details/132571706。
2024-01-08 16:36:21
361
原创 分割回文串II
题目描述:给你一个字符串 s,请你将 s 分割成一些子串,使每个子串都是回文。接着就是再用一次动态规划,判断从0到i分割几次为为回文串。第一次写的时候求解dp矩阵第一层佛如循环希曾了。,因此需要逆序(从n-1到1),而不是从1到n。这道题目比较适合使用动态规划求解,判断从。返回符合要求的 最少分割次数。是不是会问可以采用动态规划方程。
2023-04-19 10:06:15
109
原创 使用din_fcn_attention模块实现的一个demo
最后,使用Attention机制,将用户特征向量和商品特征向量的乘积与用户历史行为序列中每个商品的嵌入向量进行加权求和,得到一个加权和向量,表示用户和商品之间的关系。facts的形状为(batch_size, sequence_length, embedding_size),其中sequence_length是序列的长度,表示一个用户的历史行为序列长度。需要注意的是,query和facts的形状可以根据具体的应用场景进行调整,但是在din_fcn_attention()函数中,上述形状是默认的形状。
2023-03-28 11:24:49
206
原创 pytorch梯度更新原理以及不同实现方式
pytoch梯度更新原理根据模型的构建获取参数,进而更新参数根据自己编写的模型和优化器进行梯度更新本文有助于读者对梯度更新原理的理解以及pytorch模型的构建.更多的详细信息可以参考斯坦福公开课.......
2022-07-12 11:47:24
1391
原创 tf.stack和tf.unstack用法
tf.unstack参数了如下:def unstack(value, num=None, axis=0, name="unstack"): Args: value: A rank `R > 0` `Tensor` to be unstacked. num: An `int`. The length of the dimension `axis`. Automatically inferred if `None` (the default). axis: An `i
2022-01-25 13:51:20
2489
原创 tf.nn.rnn_cell.MultiRNNCell的理解
def __init__(self, cells, state_is_tuple=True): """Create a RNN cell composed sequentially of a number of RNNCells. Args: cells: list of RNNCells that will be composed in this order. state_is_tuple: If True, accepted and returned sta..
2022-01-24 16:58:55
2211
3
原创 scipy中的coo_matric函数
第一种用法代码如下:import scipy.sparse as spa=[[1,0,0], [0,0,1], [0,1,0]]a_coo_matrix=sp.coo_matrix(a)print('a_coo_matric:\n',a_coo_matrix)输出:第二种用法,也是比较常用的row=np.array([0, 3, 1, 0])col = np.array([0, 3, 1, 2])data = np.array([4, 5, 7, 9])dataarr
2022-01-20 21:26:48
908
原创 STMARL:用于合作交通灯控制的时空多智能体强化学习方法
《STMARL: A Spatio-Temporal Multi-Agent Reinforcement Learning Approach for Cooperative Traffic Light Control》,这是中国科学技术大学发表在交通顶级期刊IEEE Transactions on Mobile Computing 2020上的一篇文章。Abstract智能交通灯控制系统的发展是实现智能交通管理的必要条件。虽然在以一种单独的方式来优化单个交通信号灯的使用做了一些努力,相关的研究很大程度上
2022-01-19 21:26:03
1700
原创 Latex中使用实心圆点列表
效果如上图所示:Latex中的描述方式为:\begin{itemsize} \item[$\bullet$] A is greater than B \item[$\bullet$] B is greater than C \item[$\bullet$] C is greater than D\end{itemsize}在Latex中输入上述语句即可实现。
2021-11-11 16:46:03
7861
3
原创 tf.sequence_mask使用方法
def sequence_mask(lengths, maxlen=None, dtype=dtypes.bool, name=None):参数含义:lengths: 整数张量,所有值必须小于maxlenmaxlen:标量整数张量,返回张量的最后维数的大小。默认值是lengths中的最大值。dtype:输出张良类型,name:操作的名称import tensorflow as tfa=tf.sequence_mask([1,2,4,6],maxlen=7)b=tf.sequence_mas
2021-09-15 21:01:55
293
原创 tf.stack的用法
tf.stack()是一个矩阵拼接函数,会根据函数中对应的参数调整拼接的维度。 axis=0,表示在第一个维度及逆行数据的拼接,如1x3和1x3的数据拼接会形成一个形状为2x3的数据。axis=1表示在第二维的数据进行拼接。import tensorflow as tfimport numpy as npa=tf.constant([[1,2,3],[4,5,6]])aa1=tf.constant([1,2,3])aa2=tf.constant([4,5,6])#],[[7,8,9],[10,11
2021-09-09 15:52:56
6604
原创 Latex中表格内的内容过长需要换行
未换行之前:换行之后:方法:首先导入\newcommand{\tabincell}[2]{\begin{tabular}{@{}#1@{}}#2\end{tabular}}然后再需要换行的位置加入\tabincell{c}{XXXX},XXX为你需要换行的内容如\tabincell{c}{Average waiting \time of vehicles }...
2021-09-06 14:20:27
1088
原创 Latex中论文序号连续合并的问题
想要把这种类型的引用换为直接\cite{bib1,bib2,bib3,bib4}即可,不用\cite{bib1},\cite{bib2},有的博客说直接再文档前加入\usepackage{cite}或者\biboptions{numbers,sort&compress}试了一下,没解决这个问题(可能是模板的不同,有的或许可以行得通)。...
2021-08-20 14:49:50
1352
原创 获取tf.placeholder()定义的维度
因为实验设置需要获取tf.placeholder()定义的维度的参数(三维的),开始使用tf.shape()发现shape是一维的,不能获得具体的维度,查找资料之后发现可以使用 .shape.as_list()发放获取具体的维度。测试代码如下:import tensorflow as tftest = tf.placeholder(tf.float32,shape=[None,4,1])test_shape_1 =tf.shape(test)print('test_shape_1:',test_s
2021-08-14 10:19:48
361
原创 Data.TensorDataset(data_tensor=x,target_tensor=y) TypeError: __init__() got an unexpected keyword
torch_dataset=Data.TensorDataset(data_tensor=x,target_tensor=y)在学习pytorch批处理的时候使用上述代码短会出错:Traceback (most recent call last):File “E:/pyproject/pytorchlesson/pytorth_learn_batch_training.py”, line 10, in torch_dataset=Data.TensorDataset(data_tensor=x,t
2021-07-26 21:41:58
2807
原创 mayplotlib学习-设置组标轴断裂(2)
有的时候我们画图可能两个对比图的y值或者x值的取值范围相差较大,因此可以省略部分刻度。比较简单的方法是导入brokenaxes文件,使用坐标轴断裂。`在这里插入代码片import matplotlib.pyplot as pltimport matplotlib.gridspec as gridspecimport matplotlib.ticker as tickerfrom matplotlib import rcParamsfrom datetime import timedeltaimpo
2021-07-17 09:55:01
865
原创 Latex常见问题-文献引用、图片设置以及希腊字母的格式(1)
Latex学习(1)文献引用,首先创建reference.bib文件,然后把文章的bib格式复制到reference.bibi中。(2)在paper.tex中添加\bibliographystyle{IEEEtran}\bibliography{reference.bib}然后编译
2021-07-02 14:32:15
971
原创 matplotlib学习--刻度值设置以及柱状图画法(1)
画柱状图blog:https://blog.csdn.net/w113691/article/details/80385534
2021-03-29 13:59:32
2440
2
原创 tf.placeholder和tf.Variable的区别
tf.Variable(self,initial_value: Any = None,trainable: Any = None,collections: Any = None,validate_shape: bool = True,caching_device: Any = None,name: Any = None,variable_def: Any = None,dtype: Any = None,expected_shape: Any = None,import_scope: A
2020-10-06 17:37:08
352
原创 错误提示:ValueError: If initializer is a constant, do not specify shape.
这句话的意思是出初始化的数据是一个常量的话,不需要指定形状。上述代码会报错:如下如所示:此时只需把v2_cons中的shape=[1,4]去掉即可。这样就可以正常运行,结果如下:
2020-10-04 16:14:20
703
原创 错误解决:Attempting to use uninitialized value Variable
声明一个tensot变量,并用sess语句执行时(如上图所示)会报如第二张图所示错误,此时需要初始化所有变量,加入语句sess.run(tf.gloabl_variables_initializer())就可以。运行成功结果如图:注意:只要使用tf.Variable()语法,必须先初始化变量,即with tf.Session() as sess:sess.run(tf.global_variables_initializer())...
2020-10-03 21:49:32
5691
原创 神经网络的分类及其不同的应用场景
Artificial Nerual Networks-Based Machine Learning for Wireless Networks:A Tutorial这篇论文讲述了基于神经网络的无线网络机器学习教程,论文中对神经网络进行了分类,并且总结了不同的神经网络应用的场景。•模块化神经网络: 模块化神经网络(MNN)由几个独立的神经网络和一个中介组成。在一个MNN中,每个ANN用来完成MNN要执行的整个任务的一个子任务。中间层用来处理每个独立神经网络的输出,并生成一个神经网络的输出。•递归(循环
2020-09-18 21:47:21
6173
原创 6G无线系统的应用,趋势,技术以及开放性研究
专业名词:eMBB:enhenced mobile broadband(增强型移动宽带)URLLC:ultra-reliable low latency commucations(超可靠低延迟通信)Multisensory XR Applications:多传感器扩展现实Connected Robotics and Autonomous System(CRAS)–互联机器人和自主系统Wireless Brain-Computer Interactions(BCI)–无线脑机交互Blockchain
2020-09-16 22:04:50
2454
原创 监督学习和非监督学习中的算法分类
监督学习和非监督学习算法分类监督学习就是机器用来训练的样本中含有数据(data)和标签(label)。非监督学习就是机器用来训练的样本中只含有数据,而没有与之对应的标签。本文主要区划分了监督学习和非监督学习的算法分类以及使用scikit-learn进行学习的方法。下面是根据不同的情况选择学习方法的步骤:感兴趣的小伙伴可以点这里观看scikit-learn库中函数的使用以及scikit的使用方法。...
2020-09-12 18:30:38
2559
原创 RL(Reinforcement Learning)中经常使用算法分类
RL算法分类主要根据value-based和policy-based以及结合了基于值和基于概率的常见强化学习算法进行了分类。欢迎进行补充和讨论以及指正。
2020-09-11 22:10:06
311
原创 numpy.random下各种函数用法总结
因为numpy.random下的函数比较多,所以总结了一下:如下:输出结果如下:最后plot出来的图:输出结果:
2020-08-28 21:21:31
129
原创 对RL(reinforcement learning)--强化学习的认识
概念RL(Reinforcement Learning)–强化学习是指agent(智能体),通过使未来的道德奖励最大化,来学习在不确定的环境中所要进行的动作。特点强化学习不同于其他机器学范式的区别在于以下几点:1、There is no supervisor,only a reward signal(在RL中没有监督者,只有一个奖励信号)2、Feedback is delayed,not instantaneous(反馈被延迟了,智能体并不会立即得到反馈,过一段时间才会知道当时的选择所带来的结果是
2020-08-26 22:19:47
416
原创 人工智能中常用的词汇
最近总结了在人工智能中常用的英语词汇,如下:CV(computer vision)–计算机视觉NN(neural network)–神经网络CNN(convolutional neural network)–卷积神经网络BN(batch normalization)–批标准化Pooling–池化Dropout–舍弃Receptive Field–感受野Padding在神经网络中一般表示全0填充Activation–激活Convolutional–卷积Full connected lay
2020-08-26 21:05:50
3526
原创 循环神经网络中的LSTM和GRU
循环神经网络:就是借助循环核实现的时间特征提取,再把提取到的信息送入全连接网络,实现连续数据的预测。循环核:循环核具有记忆力,通过不同时刻的参数共享,实现了对时间序列的信息提取。ht:每个时刻的状态信息参数矩阵:wxh,whh,whyxt:输入特征yt:输出特征bh:偏置项by:偏置项yt=softmax(htwhy+by)ht=tanh(xtwxh+ht-1whh+bh)前向传播时:记忆体内存储的状态信息ht,在每个时刻都被更新,三个参数矩阵wxh,whh,why自始至终都是固定不变的
2020-08-25 21:50:27
416
1
原创 卷积神经网络的主要模块
卷积神经网络就是借助卷积核对输入特征进行特征提取,然后把提取到的特征送入全连接网络进行识别预测。卷积神经网络的主要模块:卷积(convolutional)–>批标准化(BN(batch noemalization))–>激活(Activation)–>池化(Pooling)–>全连接(FC)特征提取包括:卷积、批标准化、激活以及池化四步卷积就是特征提取器,就是CBAPD(convolutional,batch normalization,activation,pooling,
2020-08-22 10:42:24
1620
原创 神经网络中的常用损失函数以及正则化缓解过拟合
1)损失函数(loss):预测值(y)与已知答案(y_)的差距神经网络优化目标:loss最小 三种常见损失函数Ce(Cross Entropy(交叉熵))自定义损失函数Mse(Mean Squared Error )1.1)均方误差mse:MSE(y_,y)=2/nLoss_mse=tf.reduce_mean(tf.square(y-y_))1.2)自定义损失函数:loss(y_,y)=(根据需要定义)1.3)交叉熵损失函数CE(Cross Entropy):表征两个概率分布之间的距离H
2020-08-20 10:05:41
1016
原创 搭建神经网络步骤
六步法搭建神经网络1、导入相关模块(import)。tensorflow,numpy等模块2、告知要喂入网络的训练集和测试集(train,test),需要指定训练集的输入特征x_train和训练集的标签y_train,以及测试集的输入特征x_test和测试集的标签y_test。3、在Sequential()中搭建网络结构,逐层描述每层网络,相当于走了一遍前向传播。(Sequential()可以搭建出上层输出就是下层输入的顺序网络结构,但是无法写出带有跳连的非顺序网络结构,可以使用自定义类搭建神经网络结
2020-08-19 21:36:33
6806
1
原创 神经网络优化的步骤以及常用的神经网络优化器
优化神经网络相关的参数:w表示待优化参数,loss表示损失函数,lr表示学习率,batch表示每次迭代的数据,t表示当前batch迭代的总次数:神经网络参数优化的步骤:1、计算t时刻损失函数关于当前梯度gt=▽loss=2、计算t时刻一阶动量mt和二阶动量vt3、计算t时刻下降梯度:ηt=lrmt/4、计算t+1时刻参数:Wt+1=Wt-ηt=Wt-lrmt/一阶动量:与梯度相关的函数二阶动量:与梯度平方相关的函数常用的优化器:(1)SDG(Stochastic gradient des
2020-08-19 15:15:33
508
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人