
百度百科XPath爬虫:解决HTTP重定向导致空结果的问题
本文针对使用XPath爬取百度百科时遇到的空结果问题,提供解决方案。 问题根源在于代码未正确处理HTTP重定向,导致爬取到的页面并非目标词条页面。
以下代码片段演示了问题所在:该代码尝试提取百度百科词条摘要,但由于百度百科URL重定向,导致XPath提取失败,返回空结果。
import urllib.requestimport urllib.parsefrom lxml import etreedef query(content): url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content) headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36' } req = urllib.request.Request(url=url, headers=headers, method='GET') response = urllib.request.urlopen(req) # 这里未处理重定向 text = response.read().decode('utf-8') html = etree.HTML(text) sen_list = html.xpath('//div[contains(@class,"lemma-summary") or contains(@class,"lemmaWgt-lemmaSummary")]//text()') sen_list_after_filter = [item.strip('n') for item in sen_list] return ''.join(sen_list_after_filter)if __name__ == '__main__': while (True): content = input('查询词语:') result = query(content) print("查询结果:%s" % result)
例如,使用curl命令测试“叶挺”词条,会发现服务器返回302重定向,并给出新的URL。 原始代码未处理此重定向,直接使用初始URL返回的HTML,导致XPath提取失败。
解决方案:
为了解决这个问题,需要修改代码以处理HTTP重定向。 可以使用urllib.request.urlopen方法的follow_redirects参数,将其设置为True,或者使用更高级的HTTP客户端库(例如requests)来更优雅地处理重定向。
改进后的代码如下:
import urllib.requestimport urllib.parsefrom lxml import etreedef query(content): url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content) headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36' } req = urllib.request.Request(url=url, headers=headers, method='GET') response = urllib.request.urlopen(req, timeout=10) # 添加超时设置 text = response.read().decode('utf-8', errors='ignore') # 添加错误处理 html = etree.HTML(text) sen_list = html.xpath('//div[contains(@class,"lemma-summary") or contains(@class,"lemmaWgt-lemmaSummary")]//text()') sen_list_after_filter = [item.strip('n') for item in sen_list] return ''.join(sen_list_after_filter)if __name__ == '__main__': while (True): content = input('查询词语:') result = query(content) print("查询结果:%s" % result)
通过处理重定向后,XPath就能正确提取信息,解决空结果问题。 此外,代码中添加了超时设置和错误处理,增强了代码的健壮性。 建议使用更强大的库,例如requests,来简化HTTP请求的处理。
以上就是百度百科XPath爬虫返回空结果:如何解决HTTP重定向问题?的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1358489.html
微信扫一扫
支付宝扫一扫