Python爬虫提取超链接文本失败怎么办?

python爬虫提取超链接文本失败怎么办?

Python爬虫:巧妙解决超链接文本提取难题

在使用Python爬虫提取网页数据时,经常会遇到因超链接导致文本字段提取不完整的问题。本文以一个实际案例,详细说明如何修改代码,有效解决此类问题。

案例分析: 假设使用XPath路径//div[@class="f14 l24 news_content mt25zoom"]/p/text()提取网页文本,但目标文本“绿色发展”嵌套在标签内,导致提取结果缺失。原始文本为:“一带一路”不仅是经济繁荣之路,也是绿色发展之路,而爬虫仅提取到:“一带一路”不仅是经济繁荣之路,也是之路。

问题根源在于text()方法仅提取文本节点,忽略标签等元素节点。因此,需要调整XPath路径和文本处理逻辑。

立即学习“Python免费学习笔记(深入)”;

解决方案:

首先,修改XPath路径,使其获取

标签下的所有节点,包括文本节点和标签等。正确的路径应为//div[@class="f14 l24 news_content mt25 zoom"]/p//node()//node() 选择所有子孙节点。

其次,修改文本处理逻辑,区分文本节点和标签节点,分别提取文本内容。可以使用isinstance()函数判断节点类型,如果是文本节点,直接提取文本;如果是标签节点,则提取其text属性值。

改进后的代码:

import requestsfrom lxml import etree# 目标URLbase_url = "https://www.solidwaste.com.cn/news/342864.html"resp = requests.get(url=base_url)html = etree.HTML(resp.text)# 获取网页编码encod = html.xpath('//meta[1]/@content')if encod:    encod = encod[0].split("=")[-1]    resp.encoding = encod    html = etree.HTML(resp.text)# 获取网页正文内容content = html.xpath('//div[@class="f14 l24 news_content mt25 zoom"]/p//node()')content_deal = ""for node in content:    if isinstance(node, etree._ElementUnicodeResult):        content_deal += node.strip() + "n"    elif isinstance(node, etree._Element) and node.tag == 'a':        content_deal += node.text.strip() + "n"print(content_deal)

通过以上改进,可以完整提取包含在标签内的“绿色发展”文本。关键在于使用//node()获取所有子节点,并根据节点类型进行差异化文本提取。

以上就是Python爬虫提取超链接文本失败怎么办?的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1359521.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月13日 22:48:31
下一篇 2025年12月13日 22:48:43

相关推荐

发表回复

登录后才能评论
关注微信