python 爬虫爬取中国最好大学排名

from bs4 import BeautifulSoup
import requests
allUnivList = []
def getHTMLText(url):
    try:
        r = requests.get(url)
        r.raise_for_status()
        r.encoding = 'utf-8'
        return r.text
    except:
        return " "

def findUnivList(soup):
    data=soup.find_all('tr')
    for tr in data:
        ltd = tr.find_all('td')
        if len(ltd) == 0:
            continue
        singleUniv = []
        for td in ltd:
            singleUniv.append(td.string)
        allUnivList.append(singleUniv)


def printAllUniv(num):
    print('{1:^2}{2:{0}^10}{3:{0}^5}{4:{0}^10}{5:{0}^8}'.format(chr(12288),'排名', '学校名称', '省市', '学习类型', '总分'))
    for i in range(num):
        u = allUnivList[i]
        print('{1:^3}{2:{0}^10}{3:{0}^5}{4:{0}^10}{5:{0}^8}'.format(chr(12288),u[0],u[1],u[2],u[3],u[4]))

def main(num):
    url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2020.html'
    text = getHTMLText(url)
    soup = BeautifulSoup(text)
    findUnivList(soup)
    printAllUniv(num)

main(10)














 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫是一种用于自动化获取网页数据的技术,可以用来爬取网站上的歌曲排名信息。以下是一种基本的Python爬虫实现步骤: 1. 导入所需的库:使用Python的requests库发送HTTP请求,使用BeautifulSoup库解析HTML页面。 2. 发送HTTP请求:使用requests库发送GET请求,获取网页的HTML内容。 3. 解析HTML页面:使用BeautifulSoup库解析HTML页面,提取所需的歌曲排名信息。 4. 提取歌曲排名信息:根据网页的HTML结构,使用BeautifulSoup库提取歌曲排名信息,例如歌曲名称、歌手、排名等。 5. 存储数据:将提取到的歌曲排名信息存储到本地文件或数据库中。 下面是一个简单的示例代码,用于爬取某音乐网站的歌曲排名信息: ```python import requests from bs4 import BeautifulSoup # 发送HTTP请求,获取网页内容 url = "http://www.example.com" # 替换为目标网站的URL response = requests.get(url) html_content = response.text # 解析HTML页面 soup = BeautifulSoup(html_content, "html.parser") # 提取歌曲排名信息 song_list = soup.find_all("div", class_="song") # 根据实际网页结构修改选择器 for song in song_list: rank = song.find("span", class_="rank").text name = song.find("span", class_="name").text artist = song.find("span", class_="artist").text print(f"排名:{rank},歌曲:{name},歌手:{artist}") # 存储数据 # 将提取到的歌曲排名信息存储到本地文件或数据库中 ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值