夏虫-语冰
码龄8年
求更新 关注
提问 私信
  • 博客:4,392
    问答:11
    4,403
    总访问量
  • 5
    原创
  • 2
    粉丝
  • 36
    关注
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:福建省
加入CSDN时间: 2017-10-07

个人简介:快乐源于对生活的热爱

博客简介:

qq_40523096的博客

查看详细资料
个人成就
  • 获得14次点赞
  • 内容获得5次评论
  • 获得23次收藏
  • 博客总排名1,632,780名
创作历程
  • 5篇
    2019年
成就勋章
TA的专栏
  • 模型域
  • 爬虫
    2篇

TA关注的专栏 0

TA关注的收藏夹 0

TA关注的社区 0

TA参与的活动 0

兴趣领域 设置
  • Python
    pythonscikit-learnnumpypandas
创作活动更多

新星杯·14天创作挑战营·第13期

这是一个以写作博客为目的的创作活动,旨在鼓励大学生博主们挖掘自己的创作潜能,展现自己的写作才华。如果你是一位热爱写作的、想要展现自己创作才华的小伙伴,那么,快来参加吧!我们一起发掘写作的魅力,书写出属于我们的故事。我们诚挚邀请你们参加为期14天的创作挑战赛!注: 1、参赛者可以进入活动群进行交流、互相鼓励与支持(开卷),虚竹哥会分享创作心得和涨粉心得,答疑及活动群请见:https://bbs.csdn.net/topics/619781944 【进活动群,得奖概率会更大,因为有辅导】 2、文章质量分查询:https://www.csdn.net/qc

80人参与 去参加
  • 最近
  • 文章
  • 专栏
  • 代码仓
  • 资源
  • 收藏
  • 关注/订阅/互动
更多
  • 最近

  • 文章

  • 专栏

  • 代码仓

  • 资源

  • 收藏

  • 关注/订阅/互动

  • 社区

  • 帖子

  • 问答

  • 课程

  • 视频

搜索 取消

移动桌面时,桌面文件和用户文件夹合并了,怎么办?

答:

不过用户名还是没解决
https://blog.csdn.net/Superman___007/article/details/133686502?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171446030516800226534413%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=171446030516800226534413&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-1-133686502-null-null.142^v100^control&utm_term=%E7%94%A8%E6%88%B7%E6%96%87%E4%BB%B6%E5%A4%B9%E5%8F%98%E6%88%90%E4%BA%86%E6%A1%8C%E9%9D%A2%E6%96%87%E4%BB%B6%E5%A4%B9&spm=1018.2226.3001.4187

回答问题 2024.04.30

中关村手机资料之数据清洗---2(深入了解str.extract()和str.contains()方法)

import pandas as pdimport numpy as np#--标注列名data=pd.read_csv(r'phones.csv',engine='python')col=['index','name','cpu','battary','screen','frequency','camera','memory','storage','time','price']da...
原创
博文更新于 2019.03.14 ·
1338 阅读 ·
0 点赞 ·
0 评论 ·
9 收藏

BeautifulSoup实战之汽车配件爬取( 观察代码,为什么要用到try_except),原创不易,给个赞呗

小白文系列,仅供参考 .不封装函数,只要简单粗暴的获取数据即可,如果想要获取IP词,敬请留言~~~up主会努力优化.辛苦 原创,给个赞吧
原创
博文更新于 2019.03.27 ·
319 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

网络爬虫之re和beautifulsoup结合实战之中关村手机资料爬取--傻瓜式写法(通俗易懂,请对比我的第一篇文章)

改进后的代码是我朋友写的,老少咸宜,通俗易懂. 我们只是分析没办法像真正的程序员那样把代码写的更加的优雅,简单,还请各位看官优化,改进.
原创
博文更新于 2019.03.20 ·
660 阅读 ·
5 点赞 ·
2 评论 ·
8 收藏

BeautifulSoup的标准选择器法---find_all() / findAll()方法实战之全程无忧网页数据爬取

BeautifulSoup 有三种方法可以选择网页上的信息,为了降低被反爬的概率,我个人建议先复制网页源代码,对源码进行爬取尝试,如果是致力于程序员那就封装成函数. 今天介绍的是find()和 findAll()的嵌套使用方法.如有不足,恳请指出. 其实这段程序很早之前就写了,有很多可以改进的地方,比如标签选择和标准选择可以更灵活的组合,当时没有考虑那么多.
原创
博文更新于 2019.03.20 ·
976 阅读 ·
3 点赞 ·
1 评论 ·
1 收藏

中关村手机资料之爬取---1

import reimport timeimport requestsfrom bs4 import BeautifulSoup as bsimport pandas as pdimport randomdef get_value(url): soup=bs(f,'html.parser') Dic={'NAME':[],'PRICE':[],'DATE':[]}...
原创
博文更新于 2019.03.14 ·
980 阅读 ·
1 点赞 ·
2 评论 ·
6 收藏