
Python爬虫:巧妙解决超链接文本提取难题
在使用Python爬虫提取网页数据时,经常会遇到因超链接导致文本字段提取不完整的问题。本文以一个实际案例,详细说明如何修改代码,有效解决此类问题。
案例分析: 假设使用XPath路径//div[@class="f14 l24 news_content mt25zoom"]/p/text()提取网页文本,但目标文本“绿色发展”嵌套在标签内,导致提取结果缺失。原始文本为:“一带一路”不仅是经济繁荣之路,也是绿色发展之路,而爬虫仅提取到:“一带一路”不仅是经济繁荣之路,也是之路。
问题根源在于text()方法仅提取文本节点,忽略标签等元素节点。因此,需要调整XPath路径和文本处理逻辑。
立即学习“Python免费学习笔记(深入)”;
解决方案:
首先,修改XPath路径,使其获取
标签下的所有节点,包括文本节点和标签等。正确的路径应为//div[@class="f14 l24 news_content mt25 zoom"]/p//node()。//node() 选择所有子孙节点。
其次,修改文本处理逻辑,区分文本节点和标签节点,分别提取文本内容。可以使用isinstance()函数判断节点类型,如果是文本节点,直接提取文本;如果是标签节点,则提取其text属性值。
改进后的代码:
import requestsfrom lxml import etree# 目标URLbase_url = "https://www.solidwaste.com.cn/news/342864.html"resp = requests.get(url=base_url)html = etree.HTML(resp.text)# 获取网页编码encod = html.xpath('//meta[1]/@content')if encod: encod = encod[0].split("=")[-1] resp.encoding = encod html = etree.HTML(resp.text)# 获取网页正文内容content = html.xpath('//div[@class="f14 l24 news_content mt25 zoom"]/p//node()')content_deal = ""for node in content: if isinstance(node, etree._ElementUnicodeResult): content_deal += node.strip() + "n" elif isinstance(node, etree._Element) and node.tag == 'a': content_deal += node.text.strip() + "n"print(content_deal)
通过以上改进,可以完整提取包含在标签内的“绿色发展”文本。关键在于使用//node()获取所有子节点,并根据节点类型进行差异化文本提取。
以上就是Python爬虫提取超链接文本失败怎么办?的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1359521.html
微信扫一扫
支付宝扫一扫