自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 【学习笔记】Python会员数据化运营-Task2

Python会员数据化运营 - 基于RFM的精细化用户管理RFM简介RFM简介RFM是3个指标的缩写,最近一次消费时间间隔(Recency),消费频率(Frequency),消费金RFM是3个指标的缩写,最近一次消费时间间隔(Recency),消费频率(Frequency),消费金...

2021-08-28 23:15:05 215

原创 【学习笔记】Python会员数据化运营-Task1

Python会员数据化运营-Task1简介运营关键指标运营应用场景1.会员营销2.会员关怀运营分析模型相关阅读简介与普通用户不同,会员是面向建立联系或建立某种契约关系的用户,因此二者的运营也不同。会员运营更多的是可以沟通的一种运营,为了提升会员活跃度、忠诚度,形成精准推荐,从而复购。运营关键指标运营应用场景1.会员营销会员营销是通过构建会员体系,制定权益及定价策略,持续为会员提供全新的产品体验和服务,从而提升会员的消费力,同时增强会员粘性的一种营销战略。2.会员关怀会员关怀的目的是提升消费

2021-08-17 11:47:46 117

原创 【学习笔记】OCR竞赛实践

OCR竞赛实践概况环境搭建baseline实践结果相关阅读概况OCR (Optical Character Recognition,光学字符识别)是最早的计算机视觉任务之一。人类使用电子设备(图像采集装置)采集现实场景中打印的字符,然后通过检测字符的形状,用字符识别的方法将其翻译成计算机文字。相关链接:“英特尔创新大师杯”深度学习挑战赛环境搭建python -m pip install paddlepaddle-gpu -i https://mirror.baidu.com/pypi/simple

2021-07-13 22:56:34 157

原创 【学习笔记】GNN - Task3

GNN图神经网络入门 - Task3节点表征学习节点预测与边预测作业相关阅读节点表征学习参见基于图神经网络的节点表征学习节点预测与边预测参见节点预测与边预测任务实践作业1.使用PyG中不同的图卷积模块在PyG的不同数据集上实现节点分类或回归任务。1)读取数据## 读取“CiteSeer” 数据集数据from torch_geometric.datasets import Planetoidfrom torch_geometric.transforms import Normalize

2021-06-23 14:19:40 152

原创 【学习笔记】GNN - Task2

GNN图神经网络入门 - Task2消息传递1.消息传递(Message Passing)范式2.MessagePassing类3.GCNConv子类作业消息传递1.消息传递(Message Passing)范式节点嵌入(Node Embedding)- 神经网络的生成节点表征的操作2.MessagePassing类Pytorch Geometric(PyG)提供了MessagePassing基类,它封装了“消息传递”的运行流程。3.GCNConv子类GCNConv的数学定义为 xi(k

2021-06-19 18:14:24 176

原创 【学习笔记】GNN - Task1

GNN图神经网络入门 - Task11. 基础知识2.机器学习任务3.图数据神经网络难点4.PyTorch Geometric (PyG)5.练习1. 基础知识定义:图(G)定义为(V,E) ,记为G=(V,E) 。其中: V是顶点(Vertex)的非空有限集合,记为V(G);E是无序集V&V的一个子集,记为E(G) 。i.类别型的标签(label)ii.数值型的(numeric)属性(attribute)图的种类1)有向图&无向图 - 边是否有方向2)非加权图&am

2021-06-15 17:19:16 141

原创 【学习笔记】深度模型Wide&Deep

Wide&Deep模型学习1.背景2.结构3. 代码实现4. 思考1.背景来自16年的一篇Google的论文《Wide & Deep Learning for Recommender Systems》,文章将传统的LR和DNN组合构成一个wide&deep模型(并行结构),既保留了LR的拟合能力,又具有DNN的泛化能力,并且不需要单独训练模型(join),可以方便模型的迭代。问题的提出:线性模型LR泛化能力较弱,且需要做好特征工程,无法学习到训练集中未出现的组合特征。FM或

2021-03-18 17:58:22 348

原创 【学习笔记】DeepCrossing

DeepCrossing模型学习1.背景2.原理3.特点1.背景1)2016年由微软提出,是深度学习架构在推荐系统中的完整应用;2)应用场景是微软搜索引擎Bing中的搜索广告推荐场景,即用户输入搜索词后,搜索引擎除了会返回相关结果,还会返回与搜索词相关的广告。尽可能地增加搜索广告的点击率,准确地预测广告点击率,是Deep Crossing模型的优化目标。3)微软使用的特征分三类:一类是可以被处理成one-hot或者multi-hot向量的类别型特征,包括用户搜索词(query)、广告关键词(keyw

2021-03-16 11:24:43 133

原创 【学习笔记】WeatherOceanForecasts - Task2

WeatherOceanForecasts - baseline

2021-02-25 18:13:48 85

原创 【学习笔记】WeatherOceanForecasts - Task1

WeatherOceanForecasts - Task11. 安装Docker Desktop2.构建镜像并推送比赛链接:“AI Earth”人工智能创新挑战赛1. 安装Docker Desktop系统要求:Windows 10 64-bit: Pro, Enterprise, or Education (Build 17134 or later).对于Windows Home来说,需要先打开 WSL 2,参见Install Docker Desktop on Windows Home。配置加速

2021-02-21 16:07:37 123

原创 【学习笔记】LeetCode练习-查找之二

LeetCode练习-查找对撞指针对撞指针对撞指针要求两个指针up和down分别从前后两端向中间走,指定一个指针更新规则。1 Two Sum题目:给出一个整型数组nums,返回这个数组中两个数字的索引值i和j,使得nums[i] + nums[j]等于一个给定的target值,两个索引不能相等。排序+指针对撞(O(n)+O(nlogn)=O(n)):def twoSum(nums, target): record = dict() nums_copy = nums.copy()

2020-08-27 09:47:36 281

原创 【学习笔记】LeetCode练习-查找

LeetCode练习-查找查找表对撞指针查找表setdictmap349 Intersection Of Two Arrays 1题目:给定两个数组nums,求两个数组的公共元素。def intersection(nums1, nums2): set1 = set(nums1) set2 = set(nums2) return set2 & set1print(intersection([1,2,2,1],[2,2]))350 Intersection O

2020-08-26 07:46:05 195

原创 【学习笔记】LeetCode练习-动态规划

LeetCode练习-动态规划主要思想练习题主要思想动态规划是求解决策过程最优化的过程,往往用于优化递归问题,以减少计算量。一旦某个给定子问题的解已经算出,则将其记忆化存储,以便下次需要同一个子问题解之时直接查表。练习题300.最长上升子序列题目:给定一个无序的整数数组,找到其中最长上升子序列的长度。示例:输入: [10,9,2,5,3,7,101,18]输出: 4 解释: 最长的上升子序列是 [2,3,7,101],它的长度是 4。代码:def lengthOfLIS(nums):

2020-08-22 20:29:10 108

原创 【学习笔记】LeetCode练习-分治算法

LeetCode练习-分治算法主要思想练习题主要思想分治算法的主要思想是将原问题递归地分成若干个子问题,直到子问题满足边界条件,停止递归。将子问题逐个击破(一般是同种方法),将已经解决的子问题合并,最后,算法会层层合并得到原问题的答案。应用:MapReduce解题思路:确定切分的终止条件 -> 切分问题 -> 处理子问题得到结果 -> 合并子问题结果。伪代码:练习题50. Pow(x, n)题目:实现 pow(x, n) ,即计算 x 的 n 次幂函数。(-100.0 &

2020-08-19 17:29:01 205

原创 【学习笔记】自然语言处理实践(新闻文本分类)- 基于深度学习的文本分类Bert

Datawhale零基础入门NLP赛事-Task6TransformerBert模型基于Bert的文本分类本笔记是参加Datawhale零基础入门NLP赛事的学习笔记。TransformerTransformer是在"Attention is All You Need"中提出的,模型的编码部分是一组编码器的堆叠(论文中依次堆叠六个编码器),模型的解码部分是由相同数量的解码器的堆叠。Bert模型BERT模型结构如下图所示,它是一个基于Transformer的多层Encoder,通过执行一系列预训练,

2020-08-04 09:35:22 394

原创 【学习笔记】自然语言处理实践(新闻文本分类)- 基于深度学习的文本分类Word2Vec

Datawhale零基础入门NLP赛事-Task5文本表示方法Word2Vec模型本笔记是参加Datawhale零基础入门NLP赛事的学习笔记。文本表示方法词向量(Word embedding),语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量。one-hot representation,用一个很长的向量来表示一个词(缺点:维数大,不能表现词间相似性)。Distributed Representation,通过训练将某种语言中的每一个词映射成一个固定长度的短向量(相对于

2020-07-31 16:11:04 295

原创 【学习笔记】自然语言处理实践(新闻文本分类)- 基于深度学习的文本分类FastText

Datawhale零基础入门NLP赛事-Task4文本表示方法FastText本笔记是参加Datawhale零基础入门NLP赛事的学习笔记。文本表示方法One-hotBag of WordsN-gramTF-IDF问题:转换得到的向量维度很高,需要较长的训练实践;没有考虑单词与单词之间的关系,只是进行了统计。FastTextFastText是facebook开源的一款集word2vec、文本分类等一体的机器学习训练工具。字符级别的n-gramfastText使用了字符级别的n-gr

2020-07-27 21:10:49 398

原创 【学习笔记】自然语言处理实践(新闻文本分类)- 基于机器学习的文本分类

Datawhale零基础入门NLP赛事-Task3文本表示方法基于机器学习的文本分类本笔记是参加Datawhale零基础入门NLP赛事的学习笔记。文本表示方法词嵌入(Word Embedding) 是单词的一种数值化表示方式。它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。One-hot编码 又称为一位有效编码,主要是采用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候只有一位有效。词袋(Bag

2020-07-25 21:53:10 249

原创 【学习笔记】自然语言处理实践(新闻文本分类)- 数据读取与分析

Datawhale零基础入门NLP赛事-Task2数据读取数据分析本笔记是参加Datawhale零基础入门NLP赛事的学习笔记。数据读取数据分析文本长度分布结论:文本的平均长度为907个字符,最长的文本有57921个字符,最短的只有两个。文本长度直方图结论:由图可见,绝大多数的文本长度不超过1w字符。类别分布结论:由上图可以得出,数量最多的是0(科技)类的文本,最少的是13(星座)类文本。类别分布结论:训练集中不同的字符共6869个,数量最多的5个字符分别是’3750’,‘

2020-07-22 21:03:59 399

原创 【学习笔记】自然语言处理实践(新闻文本分类)

Datawhale零基础入门NLP赛事-Task1本笔记是参加Datawhale零基础入门NLP赛事的学习笔记赛题赛题数据为匿名处理后的新闻文本,划分14个候选分类类别:{‘科技’: 0, ‘股票’: 1, ‘体育’: 2, ‘娱乐’: 3, ‘时政’: 4, ‘社会’: 5, ‘教育’: 6, ‘财经’: 7, ‘家居’: 8, ‘游戏’: 9, ‘房产’: 10, ‘时尚’: 11, ‘彩票’: 12, ‘星座’: 13}。训练集20w条样本,测试集A包括5w条样本。评测指标为f1_scor

2020-07-21 21:20:46 372

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除