自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(29)
  • 收藏
  • 关注

原创 生意参谋-市场竞争分析-提升商品成长效率

通过类目挖掘类目洞察,确定这个品类下我们做什么类型的商品,什么类型的商品在这个品类下高速增长,但是整个类目的竞争压力比较小的,确定商品之后什么样的商品属性 在什么的组合,什么样的价格带成交占比比较高,更容易被用户选择够买,从而确定应该操作什么样的商品,别人在很少的商业化投放情况下,平台公域流量要比我们多得多,代表我们整个商品的承接效率,整个商品的人群,不如对手,找人群的问题,运营动作的问题,发现问题,定为问题,制定背后的调整策略,行业类目洞察 :找方向(类目),找属性(价格,组合,大小,产地等等)

2025-08-20 18:34:39 359

原创 生意参谋-关键词分析-提升流量获取效率

总的来说就是分析关键词,要看指标有搜索热度(体量),供需比(市场竞争情况),还有搜索的增速,三个指标,增速高的关键词有趋势,可以提前锁定流量,供需比高说明竞争压力小,搜索热度高说明市场体量大,有充足的发展空间,上限高,三个维度不独立,相互补充。勾选需求供给比,然后降序排序,需求供给比=竞争压力,需求供给比高竞争压力小,需求功供给比越小市场竞争压力越大,选择有一定搜索热度的,需求供给比大的,切符合我们商品的一些关键词来优化缩小竞争压力,提升流量获取的效率。数据源-> 市场-搜索排行-(搜索人气,搜索增速)

2025-08-20 17:14:07 426

原创 powerquery如何实现表的拼接主键

摘要:在处理无基表数据时,需构造完整主键以避免数据丢失。方法是将多表主键拼接去重,生成单一基表用于匹配。操作步骤包括统一字段命名(如日期、省份等),再使用Table.SelectColumns函数选取相同字段,通过"&"符号连接各表。示例展示了启动页、首页等5个表按12个统一字段进行拼接的过程,确保数据结构一致后再合并处理。

2025-07-22 18:50:27 927

原创 心得-电商-技术服务

生意讲究的不是越多越好,也不是越大越好,而是各个板块的平衡,生意体量小可以及时发现,当体量大的时候,就不好说了,当体量大的时候就要分版块,一个板块专门进行销售,一个板块提前备货,等等。所以要做到各个板块之间的平衡,先要知道自己的后上限在哪里,然后在根据这个上限去分配资源,例如我之后10个货,肯定不能分配大货车去拉货,肯定不能去大资源去打广告,超卖怎么办呢?在做事的时候,最重要的是有一个资源互补的人,一个人的能力是有限的,有一个资源互补的人会少很多的麻烦、分析就是对比,对比相同颗粒度的东西,从而判断好坏。

2025-07-10 17:59:52 154

原创 数据分析与做菜的关系,makedown

《数据分析的烹饪艺术》摘要: 数据分析流程如同烹饪美食,需经历7个关键步骤:1)明确需求(决定菜式);2)拆解要素(准备食谱);3)获取数据(采购食材);4)数据清洗(食材预处理);5)表连接(混合食材);6)计算指标(调味烹饪);7)可视化(精美摆盘)。PowerBI三大工具分别对应:PowerQuery(智能洗菜机)、PowerPivot(万能炒锅)、报表画布(米其林摆盘台)。图表选择遵循"比例用饼图、对比用柱图、趋势用折线、地理用地图"原则,三步通关秘籍包含数据清洗、表关联和拖拽生

2025-07-01 16:57:06 779

原创 用“做饭”理解数据分析流程(Excel三件套实战)​

摘要:本文以烹饪类比,介绍数据分析的六个步骤:1)明确需求如定菜单;2)拆解需求如备菜清单;3)数据准备如采购食材;4)数据清洗如处理食材;5)表连接如拼装食材;6)计算与可视化如烹饪摆盘。重点解析Excel的PowerQuery(数据清洗)、PowerPivot(建模计算)和PowerBI(可视化)三大工具的核心功能,通过销售分析案例演示全流程。该方法无需编程基础,适合业务人员快速上手,强调从需求到结果的逻辑链条。文末提供工具获取方式和学习建议,配有生活化比喻降低学习门槛。(149字)

2025-07-01 16:51:35 844

原创 05-power BI高级筛选器filter与Values人工造表

calculate([总分度量值],filter(values('成绩表'[学号]),[总分]>250))fileter函数对筛选的表进行横向的逐行扫描,这样的函数也叫迭代函数。返回一个表,用于表示另一个表或表达的子集,不能够单独使用,例:countrows(fileter(表筛选条件))条件 filter中的表必须是唯一值的表,否则会报错。filter的第一参数必须是唯一值得表,VALUES('成绩表'[学号])这个表可以直接造出也可以直接用。那么怎么回去唯一值的表呢?人工造表用values。

2025-06-02 18:28:13 359

原创 04powerbi-度量值-筛选引擎CALCULATE()

calculate 的参数分两部分,分别是计算器和筛选器。

2025-06-02 18:01:29 628

原创 mysql不能聚合之数据清洗逗号

有时候因为数据库不严谨导致了出现有些数字很奇怪例如这样是varchar类型的字符串,这种数据不能用来运算聚合,那么要怎么办呢?

2025-05-20 17:24:55 250

原创 power BI常用关系函数

就是VLOOKUP只能多段V一端LOOKUPVALUE(目标列,目标列的键,自己的键)

2025-05-20 13:32:30 441

原创 Power BI入门之建模

和powerquery 类似,如果直接加载就不处理表,如果转化数据,就进去powerquery中对数据进行清洗。

2025-05-20 12:54:45 233

原创 电商数据分析心得(店铺诊断)(个人理解,仅供参考)

gmv就是一个店铺综合的体现,是一个大的指标,可以综合的反应我这一天的好坏,但是好坏的确定不单是看我今天的GMV是涨了还是跌了,要结合着看,结合这大盘和竞店去看,如果大盘跌,我们也跌,就要看大盘跌了多少比例,我们跌了多少比例,看一下两者的比例差异是否大, 如果差异合理那么我们跌就是正常的,如果不合理那么跌的的就不正常,那么大盘跌的百分比和我们跌的百分比要怎么判断这两者的差值是否正常呢?数据分析是一个大的模块,从数据源你的获取,数据的清洗,数据的存储,自动化生成报表,可视化的展示大屏展示,然后就是数据的。

2025-04-29 13:21:23 1380

原创 RFM模型:3步精准定位高价值客户,复购率飙升90%的秘密!

核心价值​​:3个指标(最近消费、频次、金额)精准划分客户价值等级,破解“无效促销”困局!效果爆炸​​:实战案例复购率飙升90%,高价值客户占比翻倍,手把手教你设计召回策略!附赠神器​​:内含行业打分标准表+客户分群模板+避坑指南,一键获取《RFM策略Excel工具包》!谁该看这篇​​:电商运营、用户增长、品牌私域负责人,不想再浪费推广预算的创业者!

2025-04-29 12:50:12 1027

原创 《电商业务分析终极框架:从数据到决策的标准化路径》

痛点描述​​:分析报告散点化、归因逻辑不闭环​​框架全景图​​:Visio绘制模块化分析流程​​场景化教学​​:结合PUMA案例分步拆解​​避坑指南​​:避免单一维度结论(如只看GMV忽略利润率)警惕数据幻觉(剔除季节性/偶发因素影响)通过此框架,可实现:✅ ​​系统化诊断​​:避免分析盲区✅ ​​策略可追溯​​:每个结论对应数据支撑✅ ​​跨团队协同​​:业务/数据/供应链部门共用同一分析语言

2025-04-27 17:03:32 1305

原创 如何用Excel直接写SQL获取SQL Server数据?这可能是全网最硬核的实战指南!

Excel直连SQL Server的完整方案

2025-04-27 14:02:54 661

原创 数据分析之 商品价格分层之添加价格带

在分析货品数据的时候,我们会对商品的价格进行分层汇总,也叫价格带,​。

2025-04-24 16:26:02 2653

原创 数据分析之技术干货业务价值​​ powerquery 分组排序后取TOP

在电商中,我们要对货品进行分析,由于所有的销售数据都在一起,货品信息也在一起,两个表建立了关系之后,要看每个品类的TOP款有哪些,每个品类的TOP款是什么要怎么做呢?下面是我做数据的思路:1、分析需求与明确业务目的(重要)2、根据需求分析数据源,3、整理链接数据源,现将所有数据连接在一起,可以做一张宽表,也可以建立模型设置表关系,看自己擅长什么方式。4、根据目的对数据源用适当的方式进行聚合6、表格呈现,呈现的方式要直观符合领导的习惯。

2025-04-24 15:41:26 1160

原创 正则表达式与python re模块

正则就是对一大段文本中提取数想要的数据的方法。

2025-04-22 17:55:36 1079

原创 Power Query 批量提升多表标题:用一行代码跳过无关行,精准合并数据

场景还原在 Power Query 中合并多个结构相同的工作表时,你是否遇到过这样的问题?​​。如果手动逐个表格“提升标题”,不仅效率低下,还容易出错。比如某公司每天导出的销售数据,前4行是公司Logo和填报人信息,第5行开始才是真正的列名(日期、产品、销量)。我们需要批量跳过前4行,将第5行设为标题,再合并所有表格。每个表都是这样子的一行代码搞定全部表代码讲解。

2025-04-22 16:50:09 716

原创 破解拼多多网页字体加密的Python实现(静态)

爬取或者复制粘贴出来发现数字不是6372,而是这样的一个东西 ""从上图我们可以看出数字是一行的空白,后面被浏览器渲染后才展现的数字。我们可以用这个代码查看十六位进制对应的十进制,为什么要看十进制呢?​,而字体文件中的字符映射关系(cmap)也是以十进制存储的。我们搜索这个属性我们可以看到第一个这样的属性有一个URL,这个就是解密的字体包。然后我们构造一个这样的映射字典 key就是对应的十进制,后面的值就是对应的数字。然后我们需要封装一个函数,将加密文字和映射字典传入,返回解密后的数字。

2025-04-20 20:02:05 2872

原创 【MySQL黑科技】三步找出缺失日期数据!数据清洗效率提升90%

你是否为数据表中隐藏的日期断层抓狂?本文揭秘MySQL递归CTE黑科技,​​仅3步SQL代码​​精准定位缺失日期,附赠:✅ 递归CTE底层执行原理图解✅ 千万级数据量性能优化方案对比表✅ 时区/闰年/日期格式三大避坑指南✅ 自动补数脚本(Python联动代码)解决数据清洗、报表异常难题,效率提升90%!

2025-04-17 16:51:00 682

原创 如何用Excel写SQL直接获取MySQL数据库的内容

同样,我们可以将SQL 的参数用变量代替,然后再sheet中空值变量,就会更加的灵活。安装好驱动之后我们打开EXCEL 的PQ 新建两个空白查询。一个用来写sql 一个用来调用SQL取数。两个驱动,用来将Excel链接数据库。这样我们就获取到了数据库中的数据了。

2025-04-17 11:33:38 744

原创 python的字体解密-拼多多后台

首先我们获取加密的数据,因为是演示先简单获取用影刀获取一个数据我们看一下获取到的数据,是加密映射过的我们开始解密1.我们发现所有加密的数字都有一个class="__spider_font"属性那么这就是映射,我们搜一下这个属性看第一个这就是映射字体所用的字体包后缀是ttf,我们根据这个链接把他下载下来同样我们也可以在接口搜索文件的后缀名中找到他浏览一下。

2025-04-15 17:50:15 1276

原创 《MySQL窗口函数完全指南:高效数据分析,排名/聚合/滑动计算一网打尽!》

​。

2025-04-09 17:53:51 1237

原创 从零实现手势数字识别:Python+MediaPipe实时摄像头交互(附完整源码)

(示意图:MediaPipe手部21关键点标注)

2025-04-08 17:46:51 1595

原创 04 爬虫requests 之请求头

我们之前说到,想要通过爬虫获取数据,就要伪装自己的爬虫,让服务器误以为请求是浏览器发出的,而不是通过爬虫程序发出的,那么我们要怎么去伪装呢?就要说一下请求头了,请求头是我们使用浏览器的时候浏览器将我们的个人信息打包在一起的一个字典,然后和我们的需求一起发送给服务器,我们看一下他是什么样子吧。1、我们打开谷歌浏览器,按F12requests就是请求头,我们可以看到有很多的参数,接下来我们说一下每个参数都是什么意思。

2025-04-03 18:09:00 3498

原创 03 爬虫之HTTP链接的构成

和页面上的一样,恭喜你手刃一个小爬虫,后面将介绍如何清洗数据,只要我们想要的,怎么存储到数据库中,存在Excel表格中,一步一步成为一个真正的爬虫工程师,数据库工程师,数据分析师,ETL工程师,等学会了今天这节课你已经是一个小爬虫工程师喽。"分成了两段,问号前面是百度的连接,问号后面则是我们搜索之后的一下参数,我们可以修改一下后面的参数,比如吧梁朝伟换成李宗盛试一下,在02中我们讲了如何去获取到百度网页的页面信息,今天我们来升级一下代码,让这个链接动起来变成我们自己的一个搜索浏览器。我们运行一下看看效果。

2025-03-27 13:41:25 508

原创 02爬虫入门之爬虫request框架

请求头在网页中都可以找到,后面我将给大家哦介绍怎么找请求头他是一个带着我们信息的一个打包数据,就相当于伪装的面具,伪装成浏览器的请求去获取服务器的数据。今天我进就说一下伪装的步骤,及爬虫流程。requests.get(url, headers=None, params=None)方法可以发送GET请求,其中url为请求地址,headers为请求头部,params为请求参数。回想一下我们操作浏览器,首先要打开浏览器,然后搜索关键字,去到我们的目的网页,然后点击对应的详情页面,查看东西,爬虫也是如此。

2025-03-26 13:51:25 471

原创 01爬虫入门之web请求过程(入门)

我们要学习爬虫,第一步不是学代码,而是要明白我们爬取的数据是什么来的,而数据是如何在浏览器网页上呈现的。只有这样我们才知道我们每一步再做什么,下一步要做什么,说白了爬虫就是模拟浏览器从服务器中获取数据。弄明白了浏览器请求数据的过程,我们用代码模拟这个过程,就知道我们要做什么了。下面就针对web请求展开叙述。

2025-03-26 13:13:00 370

如何用Excel写SQL直接获取数据库的内容

配置MySQL驱动SOP

2025-04-17

如何用Excel写SQL直接获取数据库的内容

配置MySQL驱动SOP

2025-04-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除