python
082200598
这个作者很懒,什么都没留下…
展开
-
Python爬取異步加載圖片的某個網站並下載圖片
import calendarimport requests,refrom bs4 import BeautifulSoupmonths=int(input('輸入欲抓取月份'))moth=calendar.monthrange(2019,months)headers ={'User-Agent':"Mozilla/5.0 (Windows; U; Windows NT 6.1; ...原创 2019-06-05 14:21:47 · 291 阅读 · 0 评论 -
Python抓取酷狗音樂存入mongDB中
#//div[@class=‘pc_temp_songlist’]/ul/li/ span.pc_temp_num and aimport requestsfrom bs4 import BeautifulSoupimport timeimport pymongoheaders = { 'User-Agent': "Mozilla/5.0 (Windows; U; Wi...原创 2019-06-06 19:45:07 · 310 阅读 · 0 评论 -
Python訪問數據庫
#運用這篇文章前最好先學習如何安裝,操作mysql#運行前請先設置自己的防火牆端口#在配置文件中修改ip訪問的權限#注意自己的防毒軟體是否干涉訪問以上煩請自行查找需要資料,才此不做贅述!!import pymysql#訪問對象的局網ip,對方授權的用戶,授權密碼,授權庫db = pymysql.connect('192.161.22.132', 'popo', "111",'mys...原创 2019-06-02 17:04:55 · 166 阅读 · 0 评论 -
使用Python爬取小說網站並且將內容自動導入MYSQL數據庫當中
#該操作主要是以本地ip對mysql進行訪問,整理得有點亂,多多包涵囉~~~def Spider():# 懶地註釋囉!自己查吧import requestsfrom lxml import etreeimport re# 模擬請求頭headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebK...原创 2019-06-02 20:01:51 · 175 阅读 · 0 评论 -
pyhon爬取虎撲社區使用pymongo將得到的數據存入本地mongo數據庫中
首先建立一個模塊並將其封裝,模塊命名為mongomod.pyfrom pymongo import MongoClientclass MongoAPI(object): def __init__(self,ip,port,database_name,table_name): self.ip = ip self.port =port sel...原创 2019-06-09 16:11:18 · 157 阅读 · 0 评论 -
使用Python連結google_map_API獲取地圖詳情
import googlemapsimport pprintimport timekey= input('key:')gmaps = googlemaps.Client(key=key)#獲取API的key請參考這篇#location:搜尋位置的經緯度,radius:搜尋的半徑以米為單位open_now:是否獲取地點詳情,查找的例如convenience_store(便利商店)#t...原创 2019-06-14 23:31:19 · 3094 阅读 · 0 评论 -
從python中建立客戶訊息,並且存入mysql中
def State(): import pymysql tableoff = False tablename =input('輸入欲創建表名or欲插入,查詢,更改的表名') # spider=欲使用的數據庫 us = pymysql.connect('127.0.0.1', 'root', '111', 'spider') print(us) ...原创 2019-06-03 20:06:16 · 114 阅读 · 0 评论 -
使用python抓取喜馬拉雅音樂並且下載
#https://www.ximalaya.com/yinyue/#更改後面網址以對應欲爬取內容import requestsfrom lxml import etreeclass Spider(object): def __init__(self): self.headers = {'User-Agent':"Mozilla/5.0 (Windows; U; W...原创 2019-06-10 19:34:51 · 250 阅读 · 0 评论