Python爬虫学习

小白一枚,想要入行Python数据分析~

已经毕业两年了,定居西安,大学专业软件工程,当时毕业没去互联网公司上班,选择了少儿编程行业,如今的教育行业不是很理想哇,挺迷茫的~ 

现在就想重新入行程序员,可能会掉头发,哈哈哈,但是我好像头发还挺更多,掉就掉吧~

看了很多关于Python数据分析师岗位的招聘,基本要求都是Excel,Mysql,Python,PPT,BI工具,分析方法啥的,这些我基本上都会一些些,现在就是缺乏系统的学习路线;

最近关注了一个UP主@戴戴戴师兄,提供了一个我认为比较有参考价值的学习路线

附上链接:https://yrzu9y4st8.feishu.cn/docs/doccnzwzLDGEnGoVsF6YT9Sh2Zd

希望和我有同样想法的,现在!立刻!马上!学起来!

 

当然,想要入行数据分析,还是要有兴趣,不能因为高薪(月薪确实高,哈哈哈)盲目选择,要不然就是浪费时间呢~

想要一起学习的小伙伴,记得点个关注,一起学习,一起进步~ 作者:李易年 https://www.bilibili.com/read/cv15725502 出处:bilibili

import requests
# 处理URL携带的参数:封装到字典中
# UA伪装,将对应的User- Agent 封装到字典中
headers = {
    'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36'"
}
url = 'https://www.sogou.com/web'
kw = input('enter a word: ')
params = {
    'query':kw
}
#? 对指定的URL发起的请求对应的URL是携带参数的,并且请求过程中处理了参数
response = requests.get(url = url,params=params,headers=headers)
response.encoding="utf-8"
page_txt = response.text
filename = kw+'.html'
with open(filename,'w',encoding="utf-8") as fp:
    fp.write(page_txt)
print(filename,'保存成功') 

#? 爬取网页部分的局部数据  -- 百度翻译
import requests
import json
url = 'https://fanyi.baidu.com/sug'
headers = {
    'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36'"
}
word = input("请输入你要查询的单词")
data = {
    'kw':word
}
#? post 请求,携带了参数
#? 相应数据是一组json数据
response = requests.post(url=url,data=data,headers=headers)
#? 如果确认相应数据是 json类型的才可以使用 json() content-Type查看
page_json= response.json()
filename = word+'.json'
fp = open(filename,'w',encoding="utf-8")
json.dump(page_json,fp=fp,ensure_ascii=False)
print(page_json) 

 

#? 爬取豆瓣电影
import requests
import json
url = "https://movie.douban.com/j/chart/top_list?"
params = {
    'type': '24',
    'interval_id':'100:90',
    'action':'',
    'start': '0', #? 从库中的第几部电影去取,索引是从0开始的
    'limit': '20',#? 一次取出的个数
}
headers = {
    'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36'"
}
response = requests.get(url= url,params=params,headers=headers)
page_json = response.json()
fp = open('./douban.json','w',encoding="utf- 8")
json.dump(page_json,fp=fp,ensure_ascii=False)
print("over ~~~") 
#? 爬取肯德基餐厅信息查询
import requests
def Kfc(city):
    for i in range(1, 11):
        pms = {
            'cname': '',
            'pid': '',
            'keyword': city,
            'pageIndex': i,
            'pageSize': '10'
        }
        res = requests.post(url=url, data=pms, headers=headers)
        data = res.text
        filename = city+'.txt'
        with open(filename,'w',encoding='utf-8') as fp:
            fp.write(data)
if __name__ == '__main__':
    url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36'"
    }
    keyword = input("请输入城市名称:")
    Kfc(keyword)
    print("over~~") 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

遇见鲸鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值