自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 论文笔记|A CNN-BiLSTM-AM method for stock price prediction

近年来,随着经济的快速发展,越来越多的人开始投资股票市场。准确预测股票价格的变化,可以降低股票投资者的投资风险,有效提高投资收益。由于股票市场的波动特征,股票价格预测往往是非线性的时间序列预测。股票价格受到多种因素的影响。很难通过一个简单的模型进行预测。因此,本文提出了一种CNN - BiLSTM - AM方法来预测未来一天的股票收盘价。该方法由卷积神经网络( CNN )、双向长短期记忆网络( Bi LSTM )和注意力机制( AM )组成。CNN用于提取输入数据的特征。

2023-12-10 16:45:41 483 2

原创 论文笔记|Time Series Forecasting of Bitcoin Prices using LSTM and RNN with Particle Swarm Optimization a

比特币价格的波动性和不可预测性引起了投资者和研究人员的极大关注。在这项研究中,我们旨在利用长短期记忆网络( LSTM )和循环神经网络( RNN )开发精确的比特币价格时间序列预测模型,同时结合两种优化算法:粒子群优化算法( PSO )和灰狼优化算法( GWO )。这项研究的动机来自于需要提高比特币价格预测的准确性,以帮助投资者做出明智的决定并减轻潜在的风险。此外,探究优化算法对LSTM和RNN模型的影响,可以为提高预测精度提供思路。

2023-12-09 16:45:08 64

原创 论文笔记|Bidirectional LSTM-CRF Attention-based Model for Chinese Word Segmentation

中文分词( Chinese word segmentation,CWS )是中文自然语言处理( Natural language processing,NLP )的基础。分词的质量将直接影响NLP任务的其余部分。近年来,随着人工智能技术的发展,长短期记忆( Long Short-Term Memory,LSTM )神经网络作为一种易于时序建模的神经网络,在各类NLP任务中得到了广泛的应用,并取得了较好的效果。注意力机制是解决LSTM上内存压缩问题的一种巧妙方法。

2023-12-08 10:11:58 107

原创 论文笔记|Sequence-to-Sequence Learning as Beam-Search Optimization

序列到序列( seq2seq )建模迅速成为一种重要的通用NLP工具,已被证明对许多文本生成和序列标注任务是有效的。Seq2seq建立在深度神经语言建模的基础上,继承了其在估计局部、下一词分布方面的显著准确性。在本文中,我们在Daum ' e III和Marcu ( 2005 )的工作基础上,提出了一种模型和Beamsearch训练方案,该方案扩展了seq2seq来学习全局序列得分。这种结构化方法避免了与局部训练相关的经典偏差,并将训练损失与测试时间的使用统一起来。

2023-12-06 17:33:57 90 1

原创 论文笔记|Global convergence of a descent PRP type conjugate gradient method for nonconvex optimization

非线性共轭梯度法由于其较低的内存需求和较少的计算成本,常被用于求解大规模无约束优化问题。本文提出了一种新的Polak-Ribiére-Polyak(PRP)型共轭梯度法,该方法满足不依赖于任何线搜索的充分下降条件。该方法的一个显著特点是在标准Wolfe线搜索条件和标准Armijo线搜索策略下,不需要目标函数的凸性假设,具有强全局收敛性。数值结果表明了所提出方法的有效性。

2023-11-27 11:08:54 68

原创 论文笔记|Deep Transformer Models for Time Series Forecasting: The Influenza Prevalence Case

本文提出的新方法:使用基于Transformer的机器学习模型来预测时间序列数据。该方法通过利用自注意力机制从时间序列数据中学习复杂的模式和动态。该方法具有通用性:它是一个通用的框架,可以应用于单变量和多变量时间序列数据,以及时间序列嵌入。预测数据集:以流感样病例( influenza like illness,ILI )预测为例,我们证明了我们的方法产生的预测结果具有良好的可比性。

2023-11-23 19:05:44 316

原创 论文笔记|A Practical Guide to Training Restricted Boltzmann Machines

目录1 简介 12 RBMs和对比散度的概览 13 当使用对比散度时如何收集统计信息 23.1 更新隐藏状态 23.2 更新可见状态 34 Mini-batch大小 35 监控学习的过程 36 监控过拟合37 学习率 38 初始化权重和偏置 49 Momentum 410 权重衰减 411 鼓励稀疏的隐藏活跃 412 隐藏单元的数量 413 单元的不同类型 514 contrastive divergence变体 515 显示在学习中发生了什么 516 使用RBM进行

2023-11-20 18:48:08 44 1

原创 论文笔记|Performance Evaluation of Machine Learning Approaches for Credit Scoring信用评分机器学习方法的性能评价

在当今世界,评估金融信用风险在会计和金融领域都具有十分重要的意义。金融机构需要将信用违约风险保持在可接受的水平,从而获得更高的盈利能力。近年来,随着现代数据科学的快速发展,许多机器学习方法已经被用于对从不同数据源中提取的信息进行准确的预测。本研究的目的是应用数据挖掘技术来获取信息,判断哪个分类器在评估所提出的模型的信用评分方面表现更好。本文分析使用的两个数据集分别是"Give Me Some Credit"数据集和"PPDai"数据集。

2023-11-11 17:59:29 77 1

原创 论文学习笔记|Multimodal Learning with Deep Boltzmann Machines

1、用处:联合多模态的表征进行输出。一种用于学习由多种和多样化输入模态组成的数据生成模型的深度玻尔兹曼机可以抽取一个统一的多模态融合在一起的表征(extract a unified representation that fuses modalities together)。2、应用:①用于分类和信息抽取(检索)。该模型通过学习多模态输入空间上的概率密度来工作。它使用潜变量的状态作为输入的表示。②某些特征缺失的情况下抽取多模态特征。

2023-10-24 23:27:02 148

原创 计算机视觉现状

一般情况下,当你有很多数据的时候,你往往会发现人们差不多使用比较简单的算法,以及更少的人工设计就可以了,所以不太需要针对问题来仔细地设计特征,取而代之当你有大量数据的时候,你可以用一个巨大的神经网络,甚至更为简单的结构就让一个神经网络学习我们想要学习的。而数据没那么多的时候通常会看到人们做更多的人工设计,就是做更多的手工处理。目标检测-获得边框的成本比标注目标和画出边界框的成本更高,相比于图像识别,我们往往使用更少的数据做目标检测。求平均,不要对它们的权重求平均,那样是行不通的。重点-要对它们的输出。

2023-05-10 10:13:14 85

原创 数据增广Data Augmentation

作用:改善计算机视觉系统的性能。

2023-05-10 10:04:12 114

原创 寻求开源的实现/迁移学习

开源不但要下载源码还要下载相应权重。

2023-05-09 13:54:24 37

原创 MobileNets(feat.EfficientNet)

MobileNet构建计算效率更高的层。EfficientNet找到一种方法来放大或缩小这些神经网络以适应你正在使用设备的资源。有了这些,我希望你拥有在移动设备和嵌入式设备以及其他内存有限的设备上构建神经网络所需的技能。

2023-05-09 10:32:50 143

原创 1×1卷积以及inception network(goole net)

这时1×1卷积的效果是增加非线性性。它接受32个数的输入,然后输出过滤器数个输出值,然后对这36个位置中的每一个都进行相同的操作,你最终得到的输出是6×6×过滤器数。不用去只挑选一个卷积核大小或pooling,你可以所有都做,用这个inception模型,然后把所有输出结果连接起来,然后让神经网络去学习它想要用到的参数以及它想要用到的卷积核大小。:inception网络或inception层是指与其在卷积神经网络中选择一个你想使用的卷积核尺寸,乃至选择你是否需要一个卷积层还是一个池化层,让我们全都做吧。

2023-05-06 21:51:32 198

原创 残差网络ResNet

太深的神经网络训练起来很难,因为有梯度消失和爆炸这类问题。跳跃连接(skip connection) 让你从一层中得到激活并突然把它传递给下一层,甚至更深的神经网络层。利用它,可以训练网络层很深很深的残差网络无需遵行主路径,al将通过快捷路径进入到更深层的神经网络中有时这个术语不叫快捷路径(shortcut),有时叫跳跃连接,指al跳过一层或跳过几乎两层把信息传递到更深的神经网络中去。建立一个ResNet的方法,就是通过大量的这些残差块把它们堆叠起来形成一个深度网络。

2023-05-06 21:27:15 417

原创 CNN的底层架构-(一)Padding

吴恩达CNN课程笔记

2023-05-01 22:39:24 127 1

原创 CNN引子-边缘检测(Edge detection example)-吴恩达CNN

有两种检验形式:①vertical edges ②horizontal edges。

2023-04-09 21:52:32 292

原创 NLP-SR-CTC笔记

NLP李宏毅-语音识别CTC模型笔记

2023-01-17 19:18:00 83

原创 NLP-SR-LAS模型笔记

NLP李宏毅课程LAS个人笔记

2023-01-17 18:27:35 215

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除