在beautifulsoup中,lxml和html5lib解析器的功能之间是否有区别? 我正在尝试学习使用BS4并使用以下代码构造-
ret = requests.get('http://www.olivegarden.com')
soup = BeautifulSoup(ret.text, 'html5lib')
for item in soup.find_all('a'):
print item['href']
我最初使用lxml作为解析器,但注意到对于某些网站,即使页面中存在有效链接,也永远不会输入for循环。 相同页面适用于html5ib解析器。 是否有某些特定类型的页面可能不适用于lxml?
我在Ubuntu上使用python-lxml 2.3.2-1和libxml2 2.7.8.dfsg-5.1ubunt
和html5lib-1.0b3
编辑:我更新到lxml 3.1.2,仍然看到相同的问题。 在运行3.0.x的Mac上,同一页面已正确解析。 有问题的网站是www.olivegarden.com
您可以在lxml中使用html5lib解析和BeautifulSoup解析器。 参见lxml.de/elementsoup.html和lxml.de/html5parser.html
html5lib使用HTML规范中定义的以及在所有主要浏览器中实现的HTML解析算法。 lxml使用libxml2的HTML解析器-最终基于它们的XML解析器,对于在其他任何地方使用的无效HTML不会进行任何错误处理。
大多数网络开发人员仅使用网络浏览器进行测试-该死的标准-因此,如果您想获得页面作者的意图,则可能需要使用与当前浏览器匹配的html5lib之类的东西,