sql+python项目专栏
文章平均质量分 90
sql 、python
数据清洗
探索分析
数据分析
机器学习等工作项目脱密整理
Captain_Data
有问题可以私信交流呀~csdn当笔记用~
展开
-
2021_w_2.一个数据清洗的脚本
一个数据清洗的脚本#!/usr/bin/env python# -- coding: utf-8 --# @Time : DATEDATE{TIME}# @Author : wang vx:672377334# @File : v4.3.2深圳版本.pyimport datetimeimport osimport numpy as npimport pandas as pd# import timepd.set_option('float_format', lambda x: '原创 2021-11-30 16:06:40 · 903 阅读 · 0 评论 -
1 excel(vba) 如何导表 提高效率 ? 学会这个方法,你会有大把时间喝咖啡
Sub qqq() For i = 2 To 5 str1 = Range("g" & i) ActiveSheet.PivotTables("数据透视表2").PivotFields("车间").ClearAllFilters ActiveSheet.PivotTables("数据透视表2").PivotFields("车间").CurrentPage ...原创 2019-11-28 14:13:33 · 802 阅读 · 0 评论 -
NO.23如何将视频切成图片?? openCV 可以实现
这段代码起因是这样的,我以为同学目前的研究方向是机械自动化方向,涉及一些编程知识,最近他导师想考考他的Python编程能力,让他用Python将一个视频切为一帧一张图片,于是让我帮他写了这段代码,并且最后开腾讯会议给他讲解了代码含义,讲完后他对Python产生了浓厚兴趣,随即让我为他推荐几本关于编程的书,本来我是有一本入门书的,可以送他,上次在北京搬家弄丢了。。。。于是给了他书名推荐他去网上买了。代码如下:import cv2 # 导入opencv模块import os #路径与文件 库imp.原创 2020-05-28 11:54:31 · 478 阅读 · 0 评论 -
20200312百度文库 文献下载 格式txt 爬虫
今天很气,查点答案结果查到百度文库里头了,进去又没看到答案,气得我写了这个爬虫。import requestsfrom lxml import etreeimport redef get_text(url): #设置函数用于保存代码 page_url = url #获取页面网址 page_headers ={ "User-Agent": "...原创 2020-03-12 21:41:09 · 351 阅读 · 0 评论 -
一个查询ip的爬虫
一个查询ip的爬虫import requestsimport htmlurl="http://www.ip138.com/iplookup.asp?"ip=input("请输入ip或网址:")kv={'ip':ip, "action":"2"}headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64...原创 2020-03-04 23:57:01 · 481 阅读 · 0 评论 -
Excel 高级 学会这两题,每月工资+8k!!必学
分组数据计算 题目问题1问题2会题目1,月薪12k起,会题目2,月薪8k起!!Excel语句=SUM((($D$2:$D$11=C$27)*($B$2:$B$11=$A28)>0)*$C$2:$C$11)解析原创 2019-12-20 01:06:19 · 306 阅读 · 0 评论 -
sql 面试基础 必会
#1SELECT count(t_name) FROM teacher WHERE t_name like '李%';#2SELECT DISTINCT sid,Sname,COUNT(expr) FROM student-- 3SELECT student.*,score FROM sc LEFT JOIN student on sc.Sid=student.Sid WHER...原创 2019-12-18 18:09:51 · 209 阅读 · 0 评论 -
提高篇 excel 常用函数搭配技巧
left ,right 与 find案例客户 ID曾惠-14485用法搭配RIGHT([客户 ID],len([客户 ID])-find([客户 ID],"-"))原创 2019-12-17 18:13:45 · 243 阅读 · 0 评论 -
网易首页新闻标题加二级页面新闻内容爬取 工具:python+xpath
import requestsfrom lxml import htmlimport requestsimport timeurl="https://www.163.com"# //div[@class="post_body"]/div[@class="post_text"]/p# //div[contains(@class,"threadlist_title pull_left")]...原创 2019-11-06 14:20:03 · 2087 阅读 · 0 评论 -
百度贴吧帖子图片爬虫
import requestsfrom lxml import htmlimport requestsimport timeurl="https://tieba.baidu.com/f"# //div[contains(@class,"threadlist_title pull_left")]/a/@href# //div[@class="col2_right j_threadlist...原创 2019-11-06 14:17:38 · 304 阅读 · 0 评论 -
001 爬取百度贴吧并保存
import requestsimport timedef GetHtml(keywords,pages,timeSleep): url="http://tieba.baidu.com/f" kv={ 'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleW...原创 2019-11-05 09:42:51 · 236 阅读 · 0 评论