![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
大数据
CLMOON_
这个作者很懒,什么都没留下…
展开
-
爬虫课程设计(数据挖掘代码)
import csvfrom sklearn.metrics import roc_auc_scorecity1=“北京,上海,广州,深圳,成都,重庆,” “杭州,武汉,西安,天津,苏州,南京,” “郑州,长沙,东莞,沈阳,青岛,合肥,” “佛山”city2=“宁波,昆明,福州,无锡,厦门,济南” “,大连,哈尔滨,温州,石家庄,泉州,” “南宁,长春,南昌,贵阳,金华,常州,” “惠州,嘉兴,南通,徐州,太原,珠海,中山,” “保定,兰州,台州,绍兴,烟台,廊坊”city3=“潍坊,原创 2021-01-11 18:06:59 · 897 阅读 · 1 评论 -
爬虫课程设计(数据可视化代码)
import matplotlib.pyplot as pltimport pandas as pdimport numpy as npplt.rcParams[‘font.sans-serif’]=[‘SimHei’]plt.figure(figsize=(7,8)) #调节图形大小labels = [u’上海’,u’深圳’,u’广州’,u’武汉’,u’成都’,u’杭州’,u’南京’,u’苏州’,u’北京’,u’宁波’] #定义标签sizes = [15095,10962,10739,4594原创 2021-01-11 18:06:17 · 853 阅读 · 0 评论 -
爬虫课程设计(爬虫代码)
import bs4from selenium import webdriverimport timeimport pymysqlimport csvdef getWebDriver(url):# 进入浏览器设置options = webdriver.ChromeOptions()# 设置中文options.add_argument('lang=zh_CN.UTF-8')# 更换头部options.add_argument( 'user-agent="Mozilla/5原创 2021-01-11 18:05:38 · 1099 阅读 · 1 评论 -
spark实习案例
下面展示一些 内联代码片。//spark 数据 第t天package Sparkimport java.text.SimpleDateFormatimport org.apache.spark.{Partition, SparkConf, SparkContext, TaskContext}object zuoye1 { def main(args: Array[String]): Unit = { val dateFormat = new java.text.SimpleDat原创 2020-08-12 17:59:58 · 785 阅读 · 0 评论