python
暮芸向铃
淡如静水
展开
-
计算机二级Python历年真题解答(第四套)
进来看看,保证过计算机python的二级!解答都超级简单~原创 2022-03-12 14:05:23 · 1833 阅读 · 0 评论 -
计算机二级Python历年真题解答(第十二套)
历年计算机python考试真题全解析,比参考答案更简洁,更易懂原创 2022-02-20 20:42:23 · 2446 阅读 · 0 评论 -
改进版爬取猫眼电影,信息最全,beautifulsoup+re
改进版爬取猫眼电影,信息最全,采用beautifulsoup+re原创 2021-12-06 16:17:25 · 818 阅读 · 0 评论 -
机器学习训练数据(fit)时出现错误:ValueError:Unknown label type:‘continuous‘
我在网上包括csdn都没有找到正确的解决办法,都是转换成int或者乘一个数什么的,但实际上对于回归任务,浮点数的标签是不能更改的,这样会极大的影响误差。我的办法是,先转换成int,再转换成浮点型就可以了具体的,例如 y.astype(int).astype(float)...原创 2021-04-28 00:12:51 · 3997 阅读 · 14 评论 -
中型项目(1)——电信用户购买套餐分析预测(基于python)
数据来源是在kaggle上下载的,或者来自某个社区的数据集全流程1,导入包import warningsfrom pandas_profiling import ProfileReportfrom lightgbm import LGBMClassifierfrom sklearn.multiclass import OneVsRestClassifierfrom sklearn.metrics import roc_curvefrom sklearn.metrics import f1_原创 2021-04-26 16:57:18 · 944 阅读 · 1 评论 -
leetcode,lintcode刷题心得(2)——动态规划——背包问题——lintcode综合排名前三
我对背包问题的看法由于琢磨了一道最基础的题目,找打了空间复杂度为o(n)的算法思路如下,dp[i]表示第i个目标值时的最大容量或者价值如果可以重复,则对dp的内循环采用从小到大的策略否则,从大到小循环注意的是,边界条件的选取。对于这个选取,我喜欢举一个小栗子,通过流程图,直观的看出细节一些小栗子Lintcode 92 背包问题1class Solution: #d[j]表示当size等于j时,最多能承重的大小 def backPack(self, m, A):原创 2021-04-25 14:55:06 · 214 阅读 · 0 评论 -
leetcode,lintcode刷题心得(1)——动态规划
写在前面从今天起,决定写这么一个专栏,记录自己的心得,无欲无求,权当是我的见证正题今天学习了一下动态规划,边刷题边找感觉,慢慢的随心应手了起来,最开始一脸懵逼,通过在leetcode上仔细琢磨了一道题的思路——没错,就是经典的爬楼梯,逐渐找到了感觉。从一开始,一道半个小时,到后面,一道题5-10分钟,还是蛮有成就感的动态规划目前做的题目,我的思路大概是这么一个流程1,找边界,一般是起始点2,找转移方程,一般是倒推出来3,根据题意建立dp的起始空间4,根据转移方程,建立dp的方程几个粟子原创 2021-04-24 21:56:41 · 192 阅读 · 0 评论 -
禁止套娃!在csdn上写在csdn上的爬取的csdnTop100热榜,并进行数据分析(巨简单,快进来看看!)
分析通过f12,再XHR过滤掉其它内容,容易找到Top100的接口是这样的url = 'https://blog.csdn.net/phoenix/web/blog/hotRank?page=' + \ str(i)+'&pageSize=25'总共4页,用一个循环搞定接着博主采用了json库解析ps,csdn的cookie真持久,昨晚来不及爬取了,现在没更新cookie,依然能用…最后用二维列表储存用pandas输出csv文件总共20行有效代码吧,非常easy原创 2021-04-23 23:14:37 · 320 阅读 · 0 评论 -
全网最简单的15行代码爬取猫眼电影,快进来学!
分析看官,点个赞呀~很需要你们的支持请求头,cookie,user-agent这些信息,请F12,就看得到;url,只需要注意一点,每新一页page增加30;解析网页用的Beautifulsoup;提取信息使用的re;保存信息使用的pandas;其它见代码,非常简单,可以尝试跟着敲一敲import requestsfrom bs4 import BeautifulSoupimport timeimport reimport pandas as pdheaders = {原创 2021-04-19 23:54:07 · 999 阅读 · 3 评论 -
简单分析top250的数据(三)
说明这个top250系列(二)爬取到了很多信息,接下来简单分析一下小声bb——比较忙,没什么文字,来不及陈述分析过程及结论(哭)首先引入必要的库import warningsfrom pandas_profiling import ProfileReportfrom collections import Counterimport numpy as npimport pandas as pdimport seaborn as snsimport matplotlib.pyplot a原创 2021-04-18 12:33:22 · 141 阅读 · 2 评论 -
35行代码爬取豆瓣top250最全信息,Beautifulsoup(二)
说明看官多多点赞呀~上次爬取到了电影名,但远远不够,笔者试图对top250再进行数据分析,因此需要爬到更多的信息。代码如下,应该是CSDN代码量最少最简单的了~关于怎么保存爬取的数据,参看我之前的博客,很简单的;另外,为防止被封,爬取一页需要短暂的sleep(),我设定的1simport requestsfrom bs4 import BeautifulSoupimport timeimport reimport pandas as pdheaders = { 'Cookie':原创 2021-04-17 10:36:09 · 552 阅读 · 5 评论 -
将爬取的top250数据加以保存(文本,excel,sql)
将爬取的top250数据加以保存(文本,excel,sql)接着上篇的top250,我们得到top250的title,现在保存它!文本这个只需要熟悉文本的操作即可,注意换行!n=0with open('top250.txt', 'w') as f: #l列表储存的电影title for i in l: f.writelines('{},{}'.format(n, i)+'\n') n += 1结果大家自己运行一下咯~excel这个可以用到许多库,最原创 2021-04-15 12:47:05 · 156 阅读 · 0 评论 -
八行代码爬取豆瓣TOP250(一)
八行代码爬取豆瓣TOP250这里使用了bs4库,解析html非常好用,此处为展示它的快速强大,借用下例说明,仅用8行代码便爬取到了top250的电影名字import requestsfrom bs4 import BeautifulSoupheaders = {#此处填写cookie,User-agent}for i in range(25): #html通过request请求得到,().text将()转化成文本 html= requests.get( 'https:原创 2021-04-15 11:11:04 · 211 阅读 · 0 评论 -
码无止境(3)——处理excel数据并用pygal和pylot作图(适合萌新)
写在前面:我是一名大二在读的学生,专业是财务管理,与代码没有一点关系的,oh。但非常喜欢编程,目前正在努力学习,希望大家多多支持,嘿嘿问题描述:有一张excel表,如下图:我们的任务是根据这张表,统计不同学院开设的不同课程的门数,并将其图表可视化。这个任务的难点是对于同一门课程,同一个学院会因为设置不同的老师教授以及不同的上课时间,因此需要去重操作。解决方案:对于大佬来说,这个任务用numpy和pandas应该能很快并且很简洁地完成。对于萌新以及我自身来说,我考虑的是利用openxyl库提取数据,p.原创 2020-11-24 10:44:57 · 228 阅读 · 0 评论