![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Tensorflow
文章平均质量分 92
PD我是你的真爱粉
东财金融在读
展开
-
transfromer-XL论文详解
transformer作为一种特征提取器,在NLP中有广泛的应用。但是Trm需要对输入序列设置一个固定的长度,比如在BERT中,默认长度是512。如果文本序列长度短于固定长度,可以通过填充的方式来解决。如果序列长度超过固定长度,处理起来就比较麻烦。一种处理方式,就是将文本划分为多个segments。训练的时候,对每个segment单独处理,segments之间没有联系,如下图(a)所示。这存在两个问题,1)因为segments之间独立训练,所以不同的token之间,最长的依赖关系,就取决于segment的长原创 2022-08-08 16:47:59 · 1059 阅读 · 0 评论 -
ERINE系列论文解读
在这项工作中,为了解决单一自回归框架带来的问题,并探索大规模参数的知识增强预训练模型的性能,我们提出了一个名为ERNIE 3.0的统一框架,通过融合自回归网络和自编码网络,在由纯文本和大规模知识图谱组成的4TB语料库上训练大规模知识增强模型。在过去的一两年里,预训练语言模型的一个重要趋势是其模型规模不断扩大,这导致预训练的困惑度降低,在下游任务中表现更好。此外,大多数大规模的模型是以自回归的方式进行训练的,但是[6]显示,这种模型在适应下游语言理解任务时,表现出较差的传统微调性能。仿照BERT的模型规模。.原创 2022-08-08 13:55:36 · 4040 阅读 · 1 评论 -
知识图谱-推理
知识图谱的推理是知识图谱最核心的技术,有以下两个主要方向什么是推理常见的推理方法知识图谱推理的目标知识图谱常用推理方法符号推理VS向量推理OWL本体推理概念包含的推理实例检测推理一个实例检测推理的例子声明规则举例说明OWL本体推理工具本体推理的局限引入规则推理Datalog基本语法Datalog推理举例Datalog推理工具产生式系统应用产生式系统的组成RETE算法是产生式规则中的常用推理算法,因为与一个规则匹配的事实有很多,数据库join计算复杂度很高;产生式系统的工具词嵌入模型经原创 2022-06-15 11:15:22 · 3884 阅读 · 2 评论 -
知识图谱--知识抽取
知识抽取是知识图谱与NLP的交叉领域;知识图谱工程可以从关系型数据库中获取知识从视觉数据获取知识,(Scene Graph Construction之前的Caption-LSTM看图说话也可以理解为从视觉数据获取知识)从文本获取知识核心就是NLP的序列标注问题,这里不再赘述;最开始先是机器学习模型HMM为主,后被深度学习模型取代BiLSTM-CRF;总结一下HMM模型即可对于网络的Head部分有这样几个常用的结构Softmax层,简单粗暴CRF层,考虑上下文信息(在CRF层之前是一个映射到类别的FC原创 2022-06-13 22:44:19 · 1715 阅读 · 0 评论 -
知识图谱入门
早期的人工智能有两个流派知识蕴含在神经网络的参数中,但是那些参数是对机器友好,对人类并不友好的,所以知识图谱就是解决这样的问题的一个AI分支,知识图谱旨在利用图结构建模、识别和推断事物之间的复杂关联关系和沉淀领域知识;知识图谱的核心是为深度学习找到合适的向量表示就是Embedding,而且这个还要是结构化的表示(图数据);基于图的表示最基础的图的表示是有向图,基于的是RDF(Resource Description Framework,资源描述框架),其是一个三元组表示;图数据的存储与查询知识的抽取原创 2022-06-12 20:52:47 · 816 阅读 · 0 评论 -
ConVIRT论文详解(医疗图片)
ConVIRT全称是(contrastive learning of medical visual representations from paired images and text),也是对比学习的一篇工作,但是结合了多模态;是在CLIP之前的工作了;医学领域打标签的方式两种方式: linear probe只训练分类头,fine-tuning下图是特征空间的可视化,左边是在ImageNet上预训练的,右图是ConVIRT像CLIP一样,多模态最强的还是Zero-shot,不需要微调,通过图片的提示进原创 2022-06-11 22:23:53 · 3045 阅读 · 0 评论 -
CLIP论文详解
CLIP算是在跨模态训练无监督中的开创性工作,作者在开头梳理了现在vision上的训练方式,从有监督的训练,到弱监督训练,再到最终的无监督训练。这样训练的好处在于可以避免的有监督的 categorical label的限制,具有zero-shot性质,极大的提升了模型的实用性能。这篇文章中作者提到早在2017年之后就陆续有工作提出和本文类似的想法,但是他们的数据大小都太小了,导致没有很好的结果。作者单独收集了一份含有4亿份数据的大数据集,才得以得到很好的效果。这种现象最近好像在机器学习领域越来越突出,力大砖原创 2022-06-10 16:46:06 · 15607 阅读 · 0 评论 -
CV领域的对比学习综述(下)
发展历程大概可以分为四个阶段1、百花齐放在这个阶段中,方法、模型、目标函数、代理任务都还没有统一,所以说是一个百花齐放的时代2、CV双雄这个阶段发展非常迅速,上述工作有的间隔一两个月,有的间隔甚至不到一个月,ImageNet上的成绩基本上每个月都在被刷新3、不用负样本4、transformer对于自监督学习来说,无论是对比学习还是最新的掩码学习,都是用Vision Transformer做的其实第二阶段里讲的SwAV就已经有不用负样本的对比学习这个趋势了,它可以算是一个承上启下的工作,因为它也没有用负样本,原创 2022-06-07 15:11:56 · 1251 阅读 · 1 评论 -
CV领域的对比学习综述(上)
发展历程大概可以分为四个阶段1、百花齐放在这个阶段中,方法、模型、目标函数、代理任务都还没有统一,所以说是一个百花齐放的时代2、CV双雄这个阶段发展非常迅速,上述工作有的间隔一两个月,有的间隔甚至不到一个月,ImageNet上的成绩基本上每个月都在被刷新3、不用负样本4、transformer对于自监督学习来说,无论是对比学习还是最新的掩码学习,都是用Vision Transformer做的InstDisc(instance discrimination)个体判别任务的提出以及memory bank,在Mo原创 2022-06-06 23:11:10 · 584 阅读 · 0 评论 -
MoCo论文详解
MoCo(Momentum Contrast for Unsupervised Visual Representation Learning): CVPR 2020 最佳论文提名,视觉 + 对比学习的里程碑式的工作对比学习:对比学习是一种无监督学习的范式;但不是说对比学习是无监督学习吗? 要想知道两个图的物体很相似,还是要知道标签信息啊?对比学习的正负样本定义可以有很多种,说几种常见的MoCo的主要贡献为什么无监督学习在CV领域不成功?Why tokenized dictionaries 有助于无监督学习?原创 2022-06-06 00:34:19 · 1981 阅读 · 0 评论 -
swin-Transformer论文详解
swin-Transformer作为CVPR 21的最佳论文,在几乎所有下游任务都表现地很出色;swin-Transformer的全称是Hierarchical Vision Transformer using Shifted Windows;核心是怎么采用Hierarchical的方式来应用Transformer,从而是的CV与NLP更好的融合;在VIT那篇论文中,研究团队只是做了VIT用于图像分类的任务,并没有把所有任务都刷过,所以大家还是对Transformer用于CV领域有所担心,而swin-Tr原创 2022-06-05 00:50:33 · 2091 阅读 · 2 评论 -
Detr论文详解
而DETR不采用上面的思想,转而使用CNN + Transformer的方式来进行目标检测。在整体的实现上,原文完全使用原始bert的transformer结构,主要是对图片转换成类似token的处理,原文引入了一个patch的概念,即将输入图片划分为一个个的patch,然后对于每一个patch转换(主要是flatten操作),转换成类似bert的输入结构。整体的框架如下图所示:假设输入图片大小是224x224,如果每个patch的大小是16x16,那么就有196个patch。然后将16x16x3的pat原创 2022-06-03 23:45:05 · 3940 阅读 · 0 评论 -
图神经网络入门
上图的的传递方向是Layer3 -> Layer 0, 所以一个节点的信息是由上一层中与他相邻的(包括自己)节点一起贡献的信息;图是表示实体之间关系的数据结构,点就是实体,边就是关系用向量来表示图, 将图的顶点、图的边、整个图用向量来表示,举个例子问题就在于如何表示,这样的表示能否反映真实情况…在概率图模型中也见到过,就是将相邻的像素点连一条边,构造一个图,举个例子如上图所示,第一行第二列的像素点与其8个方向的相邻像素点连接了一条边;中间的那个就是邻接矩阵了;如上图所示,一个词与其下一个词连一条又向边, 一原创 2022-06-02 23:26:37 · 451 阅读 · 0 评论 -
Bertopic主题模型原理详解
Bertopic原理详解 – 潘登同学的NLP笔记文章目录Bertopic原理详解 -- 潘登同学的NLP笔记Bertopic主题建模Nearest-Neighbor-Descent (构建K近邻图)算法详解理论推导算法步骤UMAP降维算法原理学习高维空间中的流形结构寻找最近的邻居UMAP的高维表示UMAP的低维表示构造Loss使得高维表示与低维表示相近总结UMAP算法TF-IDF算法TF是词频IDF是逆向文件频率TF-IDF实际上是:TF * IDFSklearn实现TF-IDF算法CountVecto原创 2022-05-27 18:05:50 · 5608 阅读 · 12 评论 -
pix2pix论文详解
pix2pix论文详解 – 潘登同学的对抗神经网络笔记文章目录pix2pix论文详解 -- 潘登同学的对抗神经网络笔记pix2pix简介模型输入与GAN的区别Loss函数的选取conditional GAN的loss生成器网络结构判别器网络结构训练过程生成器G的训练技巧将dropout用在预测评估指标艺术欣赏pix2pix在语义标签图转真实照片、简笔画转真图、黑白图像上色、卫星航拍图转地图等图像转译任务上表现优秀pix2pix简介pix2pix是Conditional GAN的一个变体,能够实现从图原创 2022-05-25 21:07:33 · 2994 阅读 · 0 评论 -
GreedySearch和BeamSearch解码方式
GreedySearch和BeamSearch解码方式 – 潘登同学的NLP笔记文章目录GreedySearch和BeamSearch解码方式 -- 潘登同学的NLP笔记GreedySearchBeam Search(束搜索)prefix beam search重要一点: CTC Loss是在训练OCR的时求的Loss采用的,而以下这些算法都是推理时得到预测序列采用的GreedySearchGreedySearch则采取贪心算法来求解路径,就是将每个时刻t内最大的概率的状态取出,实例代码如下便于原创 2022-05-16 17:42:21 · 706 阅读 · 0 评论 -
OCR光学字符识别
OCR光学字符识别 – 潘登同学的NLP笔记文章目录OCR光学字符识别 -- 潘登同学的NLP笔记传统的OCR方法文字行提取基于切分的方法不依赖切分的方法深度学习的方法受控场景的文字检测非受控场景的文字检测基于序列学习的文字识别CTC Loss数学表达传统的OCR方法OCR (Optical Character Recognition,光学字符识别)是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程;即,针对印刷体字符原创 2022-05-15 23:21:49 · 1385 阅读 · 0 评论 -
命名实体识别BiLSTM-CRF代码实现
命名实体识别BiLSTM-CRF代码实现 – 潘登同学的NLP笔记文章目录命名实体识别BiLSTM-CRF代码实现 -- 潘登同学的NLP笔记条件随机场概述直观的例子CRF的特征函数们举些例子对比逻辑回归对比HMMBilstm-CRF命名实体识别代码实现数据预处理训练模型模型应用(维特比算法)条件随机场概述条件随机场(Conditional Random Fields),是在给定一组输入随机变量条件下另外一组输出随机变量的条件概率分布模型,它是一种判别式的概率无向图模型,既然是判别式,拿就是对条件概率原创 2022-05-11 21:14:32 · 2637 阅读 · 5 评论 -
【已解决】安装gensim包时报错setup.py install for gensim ... error
【已解决】安装gensim包时报错setup.py install for gensim … error问题描述包管理工具 – condapython版本 – 3.6深度学习框架 – tensorflow_gpu 1.15.0在虚拟环境中安装gensim失败,错误是一堆红字,其中有那么几句白色字的setup.py install for gensim … error安装的时候我是在虚拟环境下pip install gensim网上很多说要装MSVC,我明明就有,但是还是不行解决方案:我原创 2022-05-11 16:09:29 · 1468 阅读 · 3 评论 -
CycleGAN论文学习
CycleGAN论文学习 – 潘登同学的对抗神经网络笔记文章目录CycleGAN论文学习 -- 潘登同学的对抗神经网络笔记CycleGAN介绍CycleGAN核心思想过往方法论文探究模式崩溃问题论文网站 https://junyanz.github.io/CycleGAN/[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wdVSNiyQ-1652172506166)(img/horse2zebra.gif)]CycleGAN介绍在上一节GAN开山之作中,只是将一组噪音原创 2022-05-11 09:46:17 · 1179 阅读 · 0 评论 -
语义分割Mask R-CNN
语义分割Mask R-CNN–潘登同学的深度学习笔记文章目录语义分割Mask R-CNN--潘登同学的深度学习笔记上采样双线性插值转置卷积代码实现将双线性插值与转置卷积结合ROI AlignRoI PoolingRoIWrap PoolingROIAlign PoolingFPN思想图像金字塔(Featurized image pyramid)高斯金字塔拉普拉斯金字塔SSD特征金字塔FPN 结合 Fast R-CNN 或 Faster R-CNN语义分割FCNUNetMask R-CNN网络结构将mask原创 2022-05-08 22:16:08 · 1177 阅读 · 1 评论 -
Word2Vec进阶 -GPT2
Word2Vec进阶 - GPT2 – 潘登同学的NLP笔记文章目录Word2Vec进阶 - GPT2 -- 潘登同学的NLP笔记GPT2网络结构预训练任务机器翻译自动摘要生成阅读理解Zero-shot,One-shot,Few-shot问题来了Bert与GPT2的区别Bert与GPT2的区别GPT2网络结构Bert是用了Transformer的Encoder层,而GPT2则是采用了Transformer的Decoder层,最大的模型采用了48层decoder预训练任务机器翻译进行翻译时,模型原创 2022-05-07 11:10:23 · 613 阅读 · 0 评论 -
word2Vec进阶 -Bert
Word2Vec进阶 - Bert – 潘登同学的NLP笔记文章目录Word2Vec进阶 - Bert -- 潘登同学的NLP笔记Bert介绍BERT的结构Bert的输入Bert的输出预训练任务Masked Language Model(MLM)Next Sentence Prediction(NSP)总结Bert介绍BERT,全称是Pre-training of Deep Bidirectional Transformers for Language Understanding。注意其中的每一个词都原创 2022-05-07 09:09:22 · 790 阅读 · 0 评论 -
Word2Vec进阶 - ELMO
Word2Vec进阶 - ELMO – 潘登同学的NLP笔记文章目录Word2Vec进阶 - ELMO -- 潘登同学的NLP笔记ELMO原理整体架构Char Encoder LayerBiLSTMELMO词向量实验结果总结ELMOELMo出自Allen研究所在NAACL2018会议上发表的一篇论文《Deep contextualized word representations》,从论文名称看,应该是提出了一个新的词表征的方法。据他们自己的介绍:ELMo是一个深度带上下文的词表征模型,能同时建模原创 2022-05-06 17:37:57 · 452 阅读 · 0 评论 -
命名实体识别BiLSTM-CRF
命名实体识别BiLSTM-CRF – 潘登同学的NLP笔记文章目录命名实体识别BiLSTM-CRF -- 潘登同学的NLP笔记标注策略早期方法基于统计学习的方法深度学习方法BiLSTM-CRF如果不加CRF层CRF 层可以从训练数据学习限制CRF层Emission score(发射分数)Transition score(转移分数)Loss函数动态规划标注策略IOB 比如识别人名:PERB:begin表示人名起始点O:out表示非人名I:internal表示人名,但不是起始点(中部或者结尾点)原创 2022-05-05 23:52:58 · 2393 阅读 · 2 评论 -
transformer机制
transformer机制 – 潘登同学的深度学习笔记文章目录transformer机制 -- 潘登同学的深度学习笔记应用了残差思想的self-Attention Encoder加入位置信息Position Embeddingtransformer模型详解Decoder的第一层self-AttentionDecoder的第二层self-Attention应用了残差思想的self-Attention Encoder简单来说就是每一层的输入都会加到每一层的结果上去,然后做Layer Normalizat原创 2022-05-04 17:57:55 · 585 阅读 · 0 评论 -
Encoder-Decoder框架与Attention机制
Attention机制 – 潘登同学的深度学习笔记文章目录Attention机制 -- 潘登同学的深度学习笔记Encoder-Decode框架Encoder-Decode应用于聊天机器人数据预处理训练模型模型应用Attention机制计算相似度矩阵的方式论文提出的方法更常用的方法Encoder-Decode框架要了解深度学习中的注意力模型,就不得不先谈 Encoder-Decoder 框架,因为目前大多数注意力模型附着在 Encoder-Decoder 框架下,当然,其实注意力模型可以看作一种通用的思原创 2022-05-04 08:31:10 · 2053 阅读 · 0 评论 -
RNN循环神经网络(AI写唐诗)
RNN循环神经网络–潘登同学的深度学习笔记文章目录RNN循环神经网络--潘登同学的深度学习笔记RNNRNN的数学表达式RNN手写数字识别RNN的拼接操作LSTM 长短时记忆(Long Short Time Memory)LSTM数学表达LSTM手写数字识别双向LSTMGRURNN里面应用的Topology结构RNNDNN 都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。比如,当我们在理解一句话意思时原创 2022-05-02 17:50:36 · 674 阅读 · 0 评论 -
GAN开山之作
GAN开山之作 – 潘登同学的对抗神经网络笔记文章目录GAN开山之作 -- 潘登同学的对抗神经网络笔记GAN网络范式判别网络与生成网络GAN的loss训练过程GAN的证明证明1证明2证明3GAN网络范式GAN网络是基于一个生成网络和一个判别网络构成的判别网络与生成网络判别式网络(Discriminator)的发展已经很完善了,通过特征得到标签已经很完善了; 但是生成网络(Generator),根据随机数生成假数据的网络还是表现的不好;GAN的loss符号说明ZZZ 随机噪声PZ(Z)原创 2022-04-27 23:25:14 · 248 阅读 · 0 评论 -
YOLO-v4论文详解
YOLO-v4论文详解-- 潘登同学的目标检测笔记文章目录YOLO-v4论文详解-- 潘登同学的目标检测笔记YOLO-v4介绍目标检测One-stage Detector与Two-stage DetectorBag of freebiesBag of specialsYOLO-v4的选择网络结构其他改进BoF and BoSYOLO-v4介绍YOLO-v4做了很多的实验,将几乎所有的图像识别方法都做了实验,得到了很多在目标检测下的好用的方法,当然很多方法是随着数据集的改变而改变的,不一定普遍适用的…原创 2022-04-27 17:00:12 · 1055 阅读 · 0 评论 -
YOLO-v3论文详解
YOLO-v3论文详解-- 潘登同学的目标检测笔记文章目录YOLO-v3论文详解-- 潘登同学的目标检测笔记继承YOLO-9000与技术改进YOLO-v3试了但没成功继承YOLO-9000与技术改进Bounding Box Prediction计算方法与YOLO-9000bx=σ(tx)+cxby=σ(ty)+cybw=pwetwbh=phethPr(object)∗IOU(b,object)=σ(to)b_x = \sigma(t_x) + c_x \\b_y = \sigma(t_y) +原创 2022-04-27 09:11:48 · 2511 阅读 · 0 评论 -
YOLO9000论文详解
YOLO-9000论文详解 – 潘登同学的目标检测笔记文章目录YOLO-9000论文详解 -- 潘登同学的目标检测笔记YOLO-9000介绍TOLO-v2的10个改进YOLO-9000的思想Hierarchical classificationYOLO-9000YOLO-9000介绍YOLO-9000是YOLO-v2 + 9000分类TOLO-v2的10个改进Batch Normalization: 对mAP有2%的提升, 同时有了BN层就可以不用Dropout了High Resolutio原创 2022-04-26 22:20:41 · 719 阅读 · 0 评论 -
YOLO-v1论文详解
YOLO-v1论文详解 – 潘登同学的目标检测笔记文章目录YOLO-v1论文详解 -- 潘登同学的目标检测笔记与Faster R-CNN最大不同You Only Look Once算法流程网络结构部分Anchor部分输出结果Loss函数位置Lossconfidence Loss分类LossLoss前面的系数Limitation与Faster R-CNN最大不同所有loss都是回归问题端到端网络,网络结构简单快!!!You Only Look OnceYOLO就是You Only Look原创 2022-04-24 18:33:17 · 3013 阅读 · 4 评论 -
Faster R-CNN代码详解 标注数据形状
Faster R-CNN代码实战–潘登同学的深度学习笔记文章目录Faster R-CNN代码实战--潘登同学的深度学习笔记数据集介绍数据处理先看combined_roidbRoIDataLayerget_output_dirTrian过程create_architecturebuild_networkBuild headBuild RPN回到_anchor_component回到Build RPN接一层3\*3卷积,再接一层1\*1卷积Build proposals_proposal_layer_anch原创 2022-04-21 19:53:21 · 3098 阅读 · 0 评论 -
将pyx文件编译成pyd文件(很多坑,已解决)
项目场景:Faster R-CNN项目,将pyx文件编译成pyd文件(很多坑,请注意)项目环境python 3.6 – conda的虚拟环境TensorFlow 1.15.0win 10问题描述使用网上的教程进行编译有一个需要被编译的bbox.pyx文件,创建setup.py文件from distutils.core import setupfrom Cython.Build import cythonizesetup(ext_modules=cythonize("bbox.pyx"原创 2022-04-20 12:49:26 · 6298 阅读 · 5 评论 -
目标检测 从古典走进R-CNN
目标检测 从古典走进R-CNN–潘登同学的深度学习笔记文章目录目标检测 从古典走进R-CNN--潘登同学的深度学习笔记古典目标检测目标检测是回归还是分类?回归任务分类任务Region ProposalsSelective Search算法古典目标检测流程IoU(Intersection over Union)R-CNNSPP-net改进方法Fast R-CNNROI池化是SPP的一个特例Loss构成训练集的构成Faster R-CNN4个lossRPN部分NMS(非极大值抑制,Non maximum su原创 2022-04-19 22:30:00 · 183 阅读 · 0 评论 -
CNN卷积神经网络
CNN卷积神经网络–潘登同学的深度学习笔记文章目录CNN卷积神经网络--潘登同学的深度学习笔记卷积层卷积核1*1 的卷积核有啥用?彩色图片的卷积权值共享问题卷积核的扫描方式Padding模式SAME模式(补零)补零公式VALID模式(不补零)代码实现卷积导包导入数据创建卷积核创建网络结构--卷积层开卷结果展示池化层 Pooling目的作用对输入的影响代码实现池化结果展示CNN架构LeNet5架构卷积层CNN 里面最重要的构建单元就是卷积层神经元在第一个卷积层不是连接输入图片的每一个像素,只是连接它原创 2022-02-28 23:13:35 · 641 阅读 · 0 评论 -
SVM代码实现--Tensorflow部分
SVM代码实现–Tensorflow部分–潘登同学的机器学习笔记python版本–3.6 ; Tensorflow版本–1.15.0 ;编辑器–Pycharm文章目录SVM代码实现--Tensorflow部分--潘登同学的机器学习笔记软间隔SVM非线性SVM非线性SVM实现多分类软间隔SVM任务:把iris数据集的setosa与非setosa区分开模型:我们这里采用的模型是SVM中无约束优化的SVM模型SVM的损失函数(要加正则项)minw,b∑i=1m[1−y(wTx+b)原创 2021-11-07 20:50:20 · 1140 阅读 · 0 评论 -
Logistics回归、Softmax代码实现--Tensorflow部分
Logistics回归、Softmax代码实现–Tensorflow部分–潘登同学的机器学习笔记python版本–3.6 ; Tensorflow版本–1.15.0 ;编辑器–Pycharm文章目录Logistics回归、Softmax代码实现--Tensorflow部分--潘登同学的机器学习笔记导入必要的库和数据集声明学习率, 批量大小, 占位符和模型变量Sotfmax模型声明损失函数(交叉熵), 初始化变量, 声明优化器保存并绘制计算图训练模型查看训练结果从训练集中挑一组进行检验完整代码任务:原创 2021-11-05 08:48:28 · 438 阅读 · 0 评论 -
Ridge和Lasso回归代码实现--Tensorflow部分
Ridge和Lasso回归代码实现–Tensorflow部分–潘登同学的机器学习笔记python版本–3.6 ; Tensorflow版本–1.15.0 ;编辑器–Pycharm文章目录Ridge和Lasso回归代码实现--Tensorflow部分--潘登同学的机器学习笔记Ridge回归代码结果Lasso回归代码结果ElasticNet代码结果Ridge回归任务:以iris数据集的除Sepal length的数据作为X, 以Sepal length作为Y, 用X去拟合Y;前面已经很详细介绍原创 2021-11-04 21:29:18 · 577 阅读 · 0 评论