知乎Python后端面试总结

一面

  1. 写个快速排序热热身,分析一下复杂度,如果不使用额外的空间,应该怎么写?
  2. 说一下Flask中g是怎么实现的,原理是什么?
  3. 说一下浏览器从输入url到页面渲染的过程,越详细越好;
  4. 了解web安全吗?说一下XSS原理,然后又问了很多;
  5. 说一下CSRF的理解;
  6. session和cookie的区别;
  7. 数据库的索引,说一下非主键索引是怎么实现的?
  8. 还有一些其他问题记不住了;

由于知乎是用python作为主要技术栈的,在提问我阶段我就问了一下主要实现等内容,面试官讲解很详细;

一面过程中,问的还是比较深的,上面的问题,答上来之后,还会继续往深里问,不过面试官人很好,都给解答了,收获很多;

二面

二面之前有个小插曲,hr告诉我二面面试官不在,我听到这里觉得一面挂了,准备走了,估计看出来我的心思了,告诉我说真不在,让我等下,正在联系别的面试官代替。hhh

  1. 主要按照我简历上的内容来问,比如画一下现在的结构图,用的主要表,怎么优化数据库等;
  2. 别的竟然想不起来了,好像主要就是问的项目的问题;

三面

  1. 十万个人抢100个红包,怎么实现?然后又跟着这个继续问了一些问题;
  2. 说一下你最近看的三本书,介绍一下;
  3. 说一下你看的书中印象最深的东西,我说了看redis实现原理中有个跳跃表,竟然以前不知道,然后让我介绍一下,没说出来,尴尬了。自己不熟的东西还是不能说啊,不然分分钟打脸;
  4. 如果在内部进行技术分享,你会分享什么?
  5. 记不住了。。

hr面

  1. 聊了下为啥离职;
  2. 聊了下基本情况;
  3. 聊完到了知乎晚饭时间了,跟着hr小姐姐蹭了顿饭;
  4. 问我如果知乎给我offer愿意接受不。

总结

知乎拿到offer。

前每日优鲜python全栈开发工程师收python学徒,辅导python啦

 

### 回答1: Python爬虫源代码,是指使用Python编写的用于抓取互联网信息的程序代码。知乎是一个知识问答社区,许多人想要在知乎上抓取数据,因此有许多人编写了Python爬虫源代码用于抓取知乎的内容。 为了编写一个能够抓取知乎内容的Python爬虫,首先需要导入相应的库,例如requests库用于发送HTTP请求、BeautifulSoup库用于解析HTML页面等。然后,需要编写一系列函数来实现抓取知乎内容的具体功能。 首先,需要编写一个发送HTTP请求的函数,用于获取页面的原始HTML代码。利用requests库发送GET请求获取知乎页面的HTML代码。 接下来,需要利用BeautifulSoup库解析HTML代码,提取出需要的数据。可以使用BeautifulSoup提供的各种方法来定位和提取特定的标签、类名或其他属性的内容,如问题的标题、问题的描述、回答的内容等。 然后,可以编写一个保存数据的函数,将抓取到的知乎内容存储到本地文件或数据库中,以便后续的数据处理和分析。 另外,还可以编写一个循环函数,用于自动翻页并抓取更多的数据。通过观察知乎页面的URL结构,可以发现一个规律,根据这个规律来修改URL,实现翻页的功能。 最后,可以编写一个主函数,用于调用各个函数,实现整个爬虫的流程控制。 总结起来,知乎Python爬虫源代码就是用Python编写的用于抓取知乎内容的程序代码。这些代码包括发送HTTP请求、解析HTML页面、提取数据、保存数据以及实现翻页等功能。编写一个高效、稳定的爬虫源代码需要对Python编程基础和相关库的使用有一定的掌握程度,同时还需要了解HTML的基本结构和知乎页面的规律。 ### 回答2: 知乎是一个知识分享社区,而Python爬虫是一种通过编写代码自动从网页上提取信息的技术。因此,知乎Python爬虫源代码可以理解为使用Python编写的用于从知乎上获取信息的代码。 一般来说,编写知乎爬虫源代码需要以下步骤: 1. 导入所需的库:首先,我们需要导入Python的相应库,比如requests用于发送HTTP请求,BeautifulSoup用于解析网页等。 2. 发送HTTP请求获取网页内容:使用requests库发送HTTP请求,获取知乎网页的内容。 3. 解析网页内容:使用BeautifulSoup库解析网页内容,提取出我们需要的信息。可以通过查看网页源代码确定需要提取的信息所处的位置,并使用相应的标签和属性来进行定位和提取。 4. 存储提取的信息:将提取出的信息存储到合适的数据结构中,比如列表或字典,便于后续的处理和分析。 5. 处理分页:如果需要获取多页的信息,可以编写代码实现自动翻页,继续发送HTTP请求获取下一页的内容,并将提取出的信息追加到之前的数据结构中。 6. 数据持久化:将提取出的信息保存到文件或数据库中,以便后续的使用和分析。 需要注意的是,由于知乎对爬虫有一定的限制,我们在编写知乎爬虫时需要遵守相关的法律法规和知乎的使用规则,避免对知乎服务器造成过大的负担或侵犯他人的隐私。同时,为了增加程序的稳定性和可靠性,我们还可以添加异常处理机制,防止因网络问题或网页结构变化导致的程序崩溃。 总之,知乎Python爬虫源代码主要包括导入库、发送HTTP请求、解析网页内容、存储提取的信息、处理分页和数据持久化等步骤。通过编写这样的代码,我们可以方便地从知乎上获取所需的信息,并进行分析、研究和应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值