Scrapy建模通过Item定义数据结构,1. 在items.py中创建继承scrapy.Item的类并用Field()声明字段;2. Spider中实例化Item填充数据;3. 可使用ItemLoader简化提取流程,支持输入输出处理器;4. 通过Pipeline实现数据存储与处理,需在settings.py中启用。

在使用 Python Scrapy 进行爬虫开发时,建模主要是通过 Item 来完成的。Scrapy 的 Item 类似于数据模型,用来定义你要抓取的数据结构,类似于 Django 中的 Model 或数据库表结构。
1. 定义 Item 模型
在 Scrapy 项目中,Item 是在 items.py 文件中定义的。你可以创建一个类继承 scrapy.Item,然后用 scrapy.Field() 来声明字段。
例如,你想爬取书籍信息:
import scrapyclass BookItem(scrapy.Item):title = scrapy.Field()price = scrapy.Field()author = scrapy.Field()publish_date = scrapy.Field()rating = scrapy.Field()
2. 在 Spider 中使用 Item
在编写爬虫(Spider)时,导入并实例化你定义的 Item,然后填充数据。
立即学习“Python免费学习笔记(深入)”;
import scrapyfrom myproject.items import BookItemclass BookSpider(scrapy.Spider):name = 'book_spider'start_urls = ['https://www.php.cn/link/d0a446d119cee636ddcafab757831a9f']
def parse(self, response): item = BookItem() item['title'] = response.css('h1.title::text').get() item['price'] = response.css('span.price::text').get() item['author'] = response.css('span.author::text').get() item['publish_date'] = response.css('span.date::attr(content)').get() item['rating'] = response.css('div.rating::text').re_first(r'(d+.d)') yield item
3. 使用 Item Loader 简化数据提取(可选但推荐)
当字段提取逻辑复杂时,可以使用 ItemLoader 来简化和规范化处理流程。
先在 items.py 中定义 Loader:
from scrapy.loader import ItemLoaderfrom scrapy.loader.processors import TakeFirst, MapComposeclass BookItem(scrapy.Item):title = scrapy.Field(input_processor=MapCompose(str.strip),output_processor=TakeFirst())price = scrapy.Field()author = scrapy.Field()publish_date = scrapy.Field()rating = scrapy.Field()
可以在 spider 中使用
from scrapy.loader import ItemLoader
def parse(self, response):loader = ItemLoader(item=BookItem(), response=response)loader.add_css('title', 'h1.title::text')loader.add_css('price', 'span.price::text')loader.add_value('url', response.url)yield loader.load_item()
4. 数据输出与管道处理
定义好 Item 后,可以通过 Pipeline 将数据保存到 JSON、数据库等。确保在 settings.py 中启用 Pipeline:
ITEM_PIPELINES = { 'myproject.pipelines.CleanDataPipeline': 300, 'myproject.pipelines.SaveToDatabasePipeline': 400,}
基本上就这些。Scrapy 建模核心是 Item + Field + Pipeline 配合,结构清晰,易于维护和扩展。不复杂但容易忽略细节,比如字段预处理和异常处理,建议结合实际项目逐步优化。
以上就是python scrapy如何建模的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1375239.html
微信扫一扫
支付宝扫一扫