(1)Python所有方向的学习路线(新版)
这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
最近我才对这些路线做了一下新的更新,知识体系更全面了。
(2)Python学习视频
包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。
(3)100多个练手项目
我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
def parse_title_and_url(html):
"""
解析全部章节的标题和url
:param html: 需要解析的网页内容
:return None
"""
soup = BeautifulSoup(html, 'html.parser')
# 获取书名
book_name = soup.find('div', class_='wy-side-nav-search').a.text
menu = soup.find_all('div', class_='section')
chapters = menu[0].div.ul.find_all('li', class_='toctree-l1')
for chapter in chapters:
info = {}
# 获取一级标题和url
# 标题中含有'/'和'*'会保存失败
info['title'] = chapter.a.text.replace('/', '').replace('*', '')
info['url'] = base_url + chapter.a.get('href')
info['child_chapters'] = []
# 获取二级标题和url
if chapter.ul is not None:
child_chapters = chapter.ul.find_all('li')
for child in child_chapters:
url = child.a.get('href')
# 如果在url中存在'#',则此url为页面内链接,不会跳转到其他页面
# 所以不需要保存
if '#' not in url:
info['child_chapters'].append({
'title': child.a.text.replace('/', '').replace('*', ''),
'url': base_url + child.a.get('href'),
})
chapter_info.append(info)
代码中定义了两个全局变量来保存信息。章节内容保存在chapter_info列表里,里面包含了层级结构,大致结构为:
[
{
'title': 'first_level_chapter',
'url': 'www.xxxxxx.com',
'child_chapters': [
{
'title': 'second_level_chapter',
'url': 'www.xxxxxx.com',
}
...
]
}
...
]
3.3 获取章节内容
还是同样的方法定位章节内容:
05.获取章节内容
代码中我们通过
itemprop
这个属性来定位,好在一级目录内容的元素位置和二级目录内容的元素位置相同,省去了不少麻烦。
html_template = “”"
<meta charset="UTF-8">
{content}
“”"
def get_content(url):
"""
解析URL,获取需要的html内容
:param url: 目标网址
:return: html
"""
html = get_one_page(url)
soup = BeautifulSoup(html, 'html.parser')
content = soup.find('div', attrs={'itemprop': 'articleBody'})
html = html_template.format(content=content)
return html
3.4 保存pdf
def save_pdf(html, filename):
"""
把所有html文件保存到pdf文件
:param html: html内容
:param file_name: pdf文件名
:return:
"""
options = {
'page-size': 'Letter',
'margin-top': '0.75in',
'margin-right': '0.75in',
'margin-bottom': '0.75in',
'margin-left': '0.75in',
'encoding': "UTF-8",
'custom-header': [
('Accept-Encoding', 'gzip')
],
'cookie': [
('cookie-name1', 'cookie-value1'),
('cookie-name2', 'cookie-value2'),
],
'outline-depth': 10,
}
pdfkit.from_string(html, filename, options=options)
def parse_html_to_pdf():
"""
解析URL,获取html,保存成pdf文件
:return: None
"""
try:
for chapter in chapter_info:
ctitle = chapter['title']
url = chapter['url']
# 文件夹不存在则创建(多级目录)
dir_name = os.path.join(os.path.dirname(__file__), 'gen', ctitle)
if not os.path.exists(dir_name):
os.makedirs(dir_name)
html = get_content(url)
padf_path = os.path.join(dir_name, ctitle + '.pdf')
save_pdf(html, os.path.join(dir_name, ctitle + '.pdf'))
children = chapter['child_chapters']
if children:
for child in children:
html = get_content(child['url'])
pdf_path = os.path.join(dir_name, child['title'] + '.pdf')
save_pdf(html, pdf_path)
except Exception as e:
print(e)
3.5 合并pdf
经过上一步,所有章节的pdf都保存下来了,最后我们希望留一个pdf,就需要合并所有pdf并删除单个章节pdf。
from PyPDF2 import PdfFileReader, PdfFileWriter
def merge_pdf(infnList, outfn):
"""
合并pdf
:param infnList: 要合并的PDF文件路径列表
:param outfn: 保存的PDF文件名
:return: None
"""
pagenum = 0
pdf_output = PdfFileWriter()
for pdf in infnList:
# 先合并一级目录的内容
first_level_title = pdf['title']
dir_name = os.path.join(os.path.dirname(
__file__), 'gen', first_level_title)
padf_path = os.path.join(dir_name, first_level_title + '.pdf')
pdf_input = PdfFileReader(open(padf_path, 'rb'))
# 获取 pdf 共用多少页
page_count = pdf_input.getNumPages()
for i in range(page_count):
pdf_output.addPage(pdf_input.getPage(i))
# 添加书签
parent_bookmark = pdf_output.addBookmark(
first_level_title, pagenum=pagenum)
# 页数增加
pagenum += page_count
最后
🍅 硬核资料:关注即可领取PPT模板、简历模板、行业经典书籍PDF。
🍅 技术互助:技术群大佬指点迷津,你的问题可能不是问题,求资源在群里喊一声。
🍅 面试题库:由技术群里的小伙伴们共同投稿,热乎的大厂面试真题,持续更新中。
🍅 知识体系:含编程语言、算法、大数据生态圈组件(Mysql、Hive、Spark、Flink)、数据仓库、Python、前端等等。
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!