首先确认目标网站数据合法性并遵守robots协议,接着分析网页结构定位所需信息;使用Python的requests和BeautifulSoup库发送请求并解析HTML,提取标题、日期、链接等字段;通过设置请求头、延时和异常处理避免反爬;最后将多页数据保存为CSV文件,实现合规高效的数据采集。
政府网站上有很多公开数据,比如政策文件、项目招标、企业注册信息等,这些数据对研究、分析和商业决策很有价值。用Python爬虫抓取这些数据,既合法又有实际意义,前提是遵守网站的robots协议和使用规范。下面是一个实战教程,带你一步步实现如何用Python获取政府网站的开放数据。
确认目标网站与数据合法性
在动手写代码前,先明确你要抓取的是哪个政府网站,例如“国家企业信用信息公示系统”或“中国政府采购网”。查看网站根目录下的robots.txt文件(如:http://xxx.go v.cn/robots.txt),确认是否允许爬虫访问相关页面。
同时注意:
不抓取需要登录或权限认证的数据避免高频请求,设置合理延时(如time.sleep(1~3))尊重版权,仅用于个人学习或合规用途
分析网页结构并定位数据
以“中国政府采购网”为例,假设你想抓取某类采购公告的标题、发布时间和链接。
立即学习“Python免费学习笔记(深入)”;
打开目标列表页,右键“检查”元素,找到包含公告信息的HTML结构。通常这类数据在
或
中,每条记录有共同的class或标签。
示例结构可能如下:
你可以用BeautifulSoup 或lxml 解析HTML,提取所需字段。
编写爬虫代码示例
以下是一个简单的Python爬虫脚本,使用requests和BeautifulSoup抓取列表页数据:
import requestsfrom bs4 import BeautifulSoupimport timeimport csvurl = "https://www.php.cn/link/3664940859edd8b28137801625a24524 "
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"}
def scrape_page(url):try:response = requests.get(url, headers=headers, timeout=10)response.raise_for_status()response.encoding = 'utf-8'soup = BeautifulSoup(response.text, 'html.parser')
items = soup.select('.notice-list li') data = [] for item in items: link_tag = item.find('a') title = link_tag.get_text(strip=True) href = link_tag['href'] full_url = f"http://www.ccgp.gov.cn{href}" if href.startswith('/') else href date_tag = item.find('span', class_='date') date = date_tag.get_text(strip=True) if date_tag else '未知' data.append([title, date, full_url]) return dataexcept Exception as e: print(f"抓取失败:{e}") return []
抓取一页测试
results = scrape_page(url)
保存为CSV
with open('government_data.csv ', 'w', encoding='utf-8-sig', newline='') as f:writer = csv.writer(f)writer.writerow(['标题', '发布日期', '链接'])writer.writerows(results)
print("数据已保存到 government_data.csv")
处理分页与反爬策略
政府网站常有分页,可通过观察URL变化模拟翻页,例如:
http://xxx.gov.cn/page/1http://xxx.gov.cn/page/2
在代码中加入循环即可遍历多页。
如果遇到反爬(如验证码、IP限制):
添加随机延迟:time.sleep(random.uniform(1, 3))使用代理IP池(需谨慎选择合规服务)模拟浏览器 行为(可考虑Selenium,但效率较低)
基本上就这些。只要目标网站没有动态加载且未设强反爬,用requests + BeautifulSoup就能搞定大部分政府公开数据抓取任务。关键是耐心分析结构,控制请求频率,确保合规操作。
以上就是Python爬虫如何抓取政府公开数据_Python爬虫获取政府网站开放数据的实战教程的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1380014.html
赞 (0)
打赏
微信扫一扫
支付宝扫一扫
相关推荐
本教程深入探讨如何在2D NumPy数组中高效地实现行级矢量化操作,根据指定分隔符d清零特定区域的元素。文章将详细介绍两种核心方法:一种是利用np.cumprod和布尔掩码清零分隔符d及其之后的所有元素,直接解决常见需求;另一种是运用np.cumsum和np.where来清零分隔符d之前的所有元素。…
使用Python的`turtle`模块绘制特定方向和位置的椭圆是一项常见任务。本教程将详细指导您如何利用`turtle`模块的弧线绘制功能,结合初始位置和方向的调整,精确绘制出一个垂直方向且部分区域跨越Y轴的椭圆。文章将通过示例代码,讲解关键参数和步骤,帮助您掌握`turtle`绘制复杂图形的技巧。…
重构可提升Python代码质量。一、提取函数:封装重复代码,增强可读性与测试性。二、重命名变量与函数:使用具描述性的名称提高理解度。三、消除全局变量:通过参数传递和返回值降低耦合。四、使用类组织数据与行为:将相关函数和数据封装为类,提升模块化。五、拆分过长文件与函数:按功能划分模块或分解函数,改善结…
本文深入探讨cp-sat求解器进度的衡量方法,重点分析了使用`objectivevalue`和`bestobjectivebound`计算最优性间隙的挑战。文章详细阐述了在目标函数涉及负系数、零值或不同符号时的处理策略,并引入了数学规划领域通用的最优性间隙定义,强调其局限性,旨在提供一套更鲁棒、专业…
本文旨在解决在使用Xarray的resample功能并结合自定义函数时,可能出现的输出数据长度不一致问题,进而导致合并数据集时产生ValueError。文章将详细阐述xarray.resample的迭代机制,并提供两种健壮的方法来确保所有重采样时间窗口的数据都被正确处理和合并,即利用apply()方…
答案是使用for循环结合累加变量可对数字序列求和。首先定义total=0,遍历列表[1,2,3,4,5]并累加得15;可用range(1,11)生成1到10的序列求和得55;对元组(10,20,30,40)遍历累加得100;通过input获取用户输入的数字字符串,转换为整数列表后求和,如输入“3 7…
生成器通过yield函数或表达式实现惰性求值,可高效处理大数据;支持next()、send()、throw()和close()方法控制执行流程,但只能单次遍历。 如果您在编写Python程序时需要处理大量数据或希望提高内存效率,生成器是一种非常有用的工具。生成器允许您逐个产生值,而不是一次性生成所有…
Counter是Python中用于统计元素频次的类,继承自字典,支持传入列表、字符串等可迭代对象进行计数,提供most_common、elements、update等方法,并支持加减交并运算,适用于词频分析、数据清洗等场景。 collections.Counter 是 Python 中一个非常实用的…
答案:Python中创建线程主要有三种方法:1. 继承threading.Thread类并重写run()方法,适合封装线程逻辑;2. 使用threading.Thread(target=函数)指定目标函数,简洁常用;3. 使用threading.Timer实现延迟执行。推荐使用第二种方式,注意线程安…
ReferenceError发生在访问已被销毁对象的弱引用时,常见于weakref模块使用场景。示例中通过weakref.ref()创建弱引用,当原对象被del删除后,再次调用弱引用会抛出ReferenceError。解决方法包括:使用前检查弱引用是否为None、合理管理对象生命周期、避免长期持有未…
推荐使用虚拟环境隔离Python项目以避免依赖冲突。一、venv是Python自带模块,通过“python -m venv myenv”创建环境,激活后可独立安装包。二、conda适合管理多版本Python,使用“conda create –name myproject python=3…
根据Python安装方式选择恢复方法:系统自带则清理pip包,官网安装可卸载重装,Anaconda可用conda重置或重装,pyenv等工具需删除虚拟环境;也可通过卸载程序、删除残留文件并重新安装实现彻底恢复,或仅清理用户级包、缓存和虚拟环境实现软恢复。 想要将Python环境恢复到初始默认状态,核…
答案:可通过pyperformance工具评估Python代码运行效率。安装后运行完整基准测试或指定测试项,生成结果文件并比较不同Python版本间的性能差异,支持全面或针对性的性能分析。 如果您希望评估Python代码的运行效率,可以通过官方提供的基准测试工具来精确测量性能表现。该工具能够帮助开发…
正确使用Python数字类型需掌握四种核心内容:1、Python支持int、float和complex三种数字类型,分别表示整数、浮点数和复数;2、基本运算包括加(+)、减(-)、乘()、除(/)、整除(//)、取余(%)和幂(*),其中除法结果恒为float;3、类型转换可用int()、float…
Python多线程适用于I/O密集型任务,但受GIL限制,CPU密集型任务应控制线程数量以减少上下文切换;建议使用ThreadPoolExecutor管理线程池,I/O密集型设为CPU核心数2~4倍、计算密集型等于核心数;通过减少GIL争用、用异步编程替代多线程、批量处理任务可有效降低开销。 Pyt…
正确配置Python环境变量是确保自动化脚本顺利执行的关键,需根据操作系统将Python安装路径添加至PATH。1. 先通过python –version确认安装情况;2. Windows系统在环境变量Path中添加Python主目录和Scripts子目录;3. macOS/Linux编…
使用for循环对列表求和需先初始化变量,再遍历元素累加。示例:numbers = [1, 2, 3, 4, 5],total = 0,for num in numbers: total += num,输出结果为15。推荐直接遍历元素而非索引,代码更简洁;若列表含非数字类型,应加入isinstance…
filter函数用于筛选满足条件的元素,其语法为filter(函数, 可迭代对象),返回迭代器;可用自定义函数或lambda表达式判断,如list(filter(lambda x: x > 5, [3,4,5,6,7]))得[6,7,8];也可用于字符串处理,如提取字母或过滤空值,传入None…
Tkinter是Python内置的GUI库,无需安装即可使用,适合快速开发轻量级桌面应用。它提供Label、Button、Entry等常用组件,并通过pack()、grid()和place()三种布局管理器组织界面元素,其中grid()适用于复杂表单布局。事件处理通过command属性或bind()…
正确访问Python3官网首页需在浏览器地址栏输入“www.python.org”并回车,网站通过HTTPS加密保障安全;首页会根据系统推荐下载版本,顶部导航栏提供Downloads、Documentation、Community等分类便于查找资源;建议网络良好时访问以提升加载速度;首页中央的下载按…