如何使用 Python 抓取 Google 搜索结果

抓取 google 搜索可提供基本的 serp 分析、seo 优化和数据收集功能。现代抓取工具使这个过程更快、更可靠。

我们的一位社区成员撰写了此博客,作为对 crawlee 博客的贡献。如果您想向 crawlee 博客贡献此类博客,请通过我们的 discord 频道与我们联系。

在本指南中,我们将使用 crawlee for python 创建一个 google 搜索抓取工具,可以处理结果排名和分页。

我们将创建一个抓取工具:

从搜索结果中提取标题、url 和描述处理多个搜索查询追踪排名位置处理多个结果页面以结构化格式保存数据

先决条件

python 3.7 或更高版本对 html 和 css 选择器的基本了解熟悉网络抓取概念crawlee for python v0.4.2 或更高版本

项目设置

安装 crawlee 所需的依赖项:

pipx install crawlee[beautifulsoup,curl-impersonate]

使用 crawlee cli 创建一个新项目:

pipx run crawlee create crawlee-google-search

出现提示时,选择 beautifulsoup 作为您的模板类型。

立即学习“Python免费学习笔记(深入)”;

导航到项目目录并完成安装:

cd crawlee-google-searchpoetry install

使用 python 开发 google 搜索抓取工具

1. 定义提取数据

首先,让我们定义提取范围。谷歌的搜索结果现在包括地图、名人、公司详细信息、视频、常见问题和许多其他元素。我们将重点分析带有排名的标准搜索结果。

这是我们要提取的内容:

如何使用 Python 抓取 Google 搜索结果

我们来验证一下是否可以从页面的html代码中提取必要的数据,或者是否需要更深入的分析或js渲染。请注意,此验证对 html 标签敏感:

如何使用 Python 抓取 Google 搜索结果

根据从页面获取的数据,所有必要的信息都存在于 html 代码中。因此,我们可以使用beautifulsoup_crawler。

我们将提取的字段:

搜索结果标题网址描述文字排名位置

2.配置爬虫

首先,让我们创建爬虫配置。

我们将使用 curlimpersonatehttpclient 作为带有预设标头的 http_client,并模拟与 chrome 浏览器相关的内容。

我们还将配置 concurrencysettings 来控制抓取攻击性。这对于避免被 google 屏蔽至关重要。

如果您需要更集中地提取数据,请考虑设置proxyconfiguration。

from crawlee.beautifulsoup_crawler import beautifulsoupcrawlerfrom crawlee.http_clients.curl_impersonate import curlimpersonatehttpclientfrom crawlee import concurrencysettings, httpheadersasync def main() -> none:    concurrency_settings = concurrencysettings(max_concurrency=5, max_tasks_per_minute=200)    http_client = curlimpersonatehttpclient(impersonate="chrome124",                                            headers=httpheaders({"referer": "https://www.google.com/",                                                     "accept-language": "en",                                                     "accept-encoding": "gzip, deflate, br, zstd",                                                     "user-agent": "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/131.0.0.0 safari/537.36"                                            }))    crawler = beautifulsoupcrawler(        max_request_retries=1,        concurrency_settings=concurrency_settings,        http_client=http_client,        max_requests_per_crawl=10,        max_crawl_depth=5    )    await crawler.run(['https://www.google.com/search?q=apify'])

3. 实现数据提取

首先我们来分析一下需要提取的元素的html代码:

如何使用 Python 抓取 Google 搜索结果

可读 id 属性和生成 类名和其他属性之间存在明显区别。创建用于数据提取的选择器时,您应该忽略任何生成的属性。即使您已经了解到 google 已经使用特定的生成标签 n 年了,您也不应该依赖它 – 这反映了您编写健壮代码的经验。

现在我们了解了 html 结构,让我们来实现提取。由于我们的爬虫只处理一种类型的页面,因此我们可以使用 router.default_handler 来处理它。在处理程序中,我们将使用 beautifulsoup 迭代每个搜索结果,在保存结果时提取标题、url 和 text_widget 等数据。

@crawler.router.default_handlerasync def default_handler(context: beautifulsoupcrawlingcontext) -> none:    """default request handler."""    context.log.info(f'processing {context.request} ...')    for item in context.soup.select("div#search div#rso div[data-hveid][lang]"):        data = {            'title': item.select_one("h3").get_text(),            "url": item.select_one("a").get("href"),            "text_widget": item.select_one("div[style*='line']").get_text(),        }        await context.push_data(data)

4. 处理分页

由于 google 结果取决于搜索请求的 ip 地理位置,因此我们不能依赖链接文本进行分页。我们需要创建一个更复杂的 css 选择器,无论地理位置和语言设置如何,它都可以工作。

max_crawl_depth 参数控制我们的爬虫应该扫描多少页面。一旦我们有了强大的选择器,我们只需获取下一页链接并将其添加到爬虫队列中即可。

要编写更高效的选择器,请学习 css 和 xpath 语法的基础知识。

    await context.enqueue_links(selector="div[role='navigation'] td[role='heading']:last-of-type > a")

5. 将数据导出为csv格式

由于我们希望以方便的表格格式(例如 csv)保存所有搜索结果数据,因此我们可以在运行爬虫后立即添加 export_data 方法调用:

await crawler.export_data_csv("google_search.csv")

6. 完成 google 搜索抓取工具

虽然我们的核心爬虫逻辑有效,但您可能已经注意到我们的结果目前缺乏排名位置信息。为了完成我们的抓取工具,我们需要通过使用请求中的 user_data 在请求之间传递数据来实现正确的排名位置跟踪。

让我们修改脚本来处理多个查询并跟踪搜索结果分析的排名位置。我们还将爬行深度设置为顶级变量。让我们将 router.default_handler 移至 paths.py 以匹配项目结构:

# crawlee-google-search.mainfrom crawlee.beautifulsoup_crawler import beautifulsoupcrawler, beautifulsoupcrawlingcontextfrom crawlee.http_clients.curl_impersonate import curlimpersonatehttpclientfrom crawlee import request, concurrencysettings, httpheadersfrom .routes import routerqueries = ["apify", "crawlee"]crawl_depth = 2async def main() -> none:    """the crawler entry point."""    concurrency_settings = concurrencysettings(max_concurrency=5, max_tasks_per_minute=200)    http_client = curlimpersonatehttpclient(impersonate="chrome124",                                            headers=httpheaders({"referer": "https://www.google.com/",                                                     "accept-language": "en",                                                     "accept-encoding": "gzip, deflate, br, zstd",                                                     "user-agent": "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/131.0.0.0 safari/537.36"                                            }))    crawler = beautifulsoupcrawler(        request_handler=router,        max_request_retries=1,        concurrency_settings=concurrency_settings,        http_client=http_client,        max_requests_per_crawl=100,        max_crawl_depth=crawl_depth    )    requests_lists = [request.from_url(f"https://www.google.com/search?q={query}", user_data = {"query": query}) for query in queries]    await crawler.run(requests_lists)    await crawler.export_data_csv("google_ranked.csv")

我们还可以修改处理程序以添加 query 和 order_no 字段以及基本错误处理:

# crawlee-google-search.routesfrom crawlee.beautifulsoup_crawler import BeautifulSoupCrawlingContextfrom crawlee.router import Routerrouter = Router[BeautifulSoupCrawlingContext]()@router.default_handlerasync def default_handler(context: BeautifulSoupCrawlingContext) -> None:    """Default request handler."""    context.log.info(f'Processing {context.request.url} ...')    order = context.request.user_data.get("last_order", 1)    query = context.request.user_data.get("query")    for item in context.soup.select("div#search div#rso div[data-hveid][lang]"):        try:            data = {                "query": query,                "order_no": order,                'title': item.select_one("h3").get_text(),                "url": item.select_one("a").get("href"),                "text_widget": item.select_one("div[style*='line']").get_text(),            }            await context.push_data(data)            order += 1        except AttributeError as e:            context.log.warning(f'Attribute error for query "{query}": {str(e)}')        except Exception as e:            context.log.error(f'Unexpected error for query "{query}": {str(e)}')    await context.enqueue_links(selector="div[role='navigation'] td[role='heading']:last-of-type > a",                                user_data={"last_order": order, "query": query})

我们就完成了!

我们的 google 搜索抓取工具已准备就绪。我们来看看 google_ranked.csv 文件中的结果:

如何使用 Python 抓取 Google 搜索结果

代码存储库可在 github 上获取

使用 apify 抓取 google 搜索结果

如果您正在从事需要数百万个数据点的大型项目,例如本文中有关 google 排名分析的项目 – 您可能需要一个现成的解决方案。

考虑使用 apify 团队开发的 google 搜索结果抓取器。

它提供了重要的功能,例如:

代理支持大规模数据提取的可扩展性地理位置控制与 zapier、make、airbyte、langchain 等外部服务集成

您可以在 apify 博客中了解更多信息

你会刮什么?

在本博客中,我们逐步探索了如何创建收集排名数据的 google 搜索抓取工具。如何分析此数据集取决于您!

温馨提示,您可以在 github 上找到完整的项目代码。

我想 5 年后我需要写一篇关于“如何从 llm 的最佳搜索引擎中提取数据”的文章,但我怀疑 5 年后这篇文章仍然具有相关性。

以上就是如何使用 Python 抓取 Google 搜索结果的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1354559.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月13日 18:38:07
下一篇 2025年12月13日 18:38:23

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • 如何用dom2img解决网页打印样式不显示的问题?

    用dom2img解决网页打印样式不显示的问题 想将网页以所见即打印的的效果呈现,需要采取一些措施,特别是在使用了bootstrap等大量采用外部css样式的框架时。 问题根源 在常规打印操作中,浏览器通常会忽略css样式等非必要的页面元素,导致打印出的结果与网页显示效果不一致。这是因为打印机制只识别…

    2025年12月24日
    800
  • 如何用 CSS 模拟不影响其他元素的链接移入效果?

    如何模拟 css 中链接的移入效果 在 css 中,模拟移入到指定链接的效果尤为复杂,因为链接的移入效果不影响其他元素。要实现这种效果,最简单的方法是利用放大,例如使用 scale 或 transform 元素的 scale 属性。下面提供两种方法: scale 属性: .goods-item:ho…

    2025年12月24日
    700
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • PC端H5项目如何实现适配:流式布局、响应式设计和两套样式?

    PC端的适配方案及PC与H5兼顾的实现方案探讨 在开发H5项目时,常用的屏幕适配方案是postcss-pxtorem或postcss-px-to-viewport,通常基于iPhone 6标准作为设计稿。但对于PC端网项目,处理不同屏幕大小需要其他方案。 PC端屏幕适配方案 PC端屏幕适配一般采用流…

    2025年12月24日
    300
  • CSS 元素设置 10em 和 transition 后为何没有放大效果?

    CSS 元素设置 10em 和 transition 后为何无放大效果? 你尝试设置了一个 .box 类,其中包含字体大小为 10em 和过渡持续时间为 2 秒的文本。当你载入到页面时,它没有像 YouTube 视频中那样产生放大效果。 原因可能在于你将 CSS 直接写在页面中 在你的代码示例中,C…

    2025年12月24日
    400
  • 如何实现类似横向U型步骤条的组件?

    横向U型步骤条寻求替代品 希望找到类似横向U型步骤条的组件或 CSS 实现。 潜在解决方案 根据给出的参考图片,类似的组件有: 图片所示组件:图片提供了组件的外观,但没有提供具体的实现方式。参考链接:提供的链接指向了 SegmentFault 上的另一个问题,其中可能包含相关的讨论或解决方案建议。 …

    2025年12月24日
    800
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何优化CSS Grid布局中子元素排列和宽度问题?

    css grid布局中的优化问题 在使用css grid布局时可能会遇到以下问题: 问题1:无法控制box1中li的布局 box1设置了grid-template-columns: repeat(auto-fill, 20%),这意味着容器将自动填充尽可能多的20%宽度的列。当li数量大于5时,它们…

    2025年12月24日
    800
  • SASS 中的 Mixins

    mixin 是 css 预处理器提供的工具,虽然它们不是可以被理解的函数,但它们的主要用途是重用代码。 不止一次,我们需要创建多个类来执行相同的操作,但更改单个值,例如字体大小的多个类。 .fs-10 { font-size: 10px;}.fs-20 { font-size: 20px;}.fs-…

    2025年12月24日
    000
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • CSS mask 属性无法加载图片:浏览器问题还是代码错误?

    CSS mask 属性请求图片失败 在使用 CSS mask 属性时,您遇到了一个问题,即图片没有被请求获取。这可能是由于以下原因: 浏览器问题:某些浏览器可能在处理 mask 属性时存在 bug。尝试更新到浏览器的最新版本。代码示例中的其他信息:您提供的代码示例中还包含其他 HTML 和 CSS …

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何用 CSS 实现链接移入效果?

    css 中实现链接移入效果的技巧 在 css 中模拟链接的移入效果可能并不容易,因为它们不会影响周围元素。但是,有几个方法可以实现类似的效果: 1. 缩放 最简单的方法是使用 scale 属性,它会放大元素。以下是一个示例: 立即学习“前端免费学习笔记(深入)”; .goods-item:hover…

    2025年12月24日
    000
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 如何用 CSS 实现类似卡券的缺口效果?

    类似卡券的布局如何实现 想要实现类似卡券的布局,可以使用遮罩(mask)来实现缺口效果。 示例代码: .card { -webkit-mask: radial-gradient(circle at 20px, #0000 20px, red 0) -20px;} 效果: 立即学习“前端免费学习笔记(…

    2025年12月24日
    000
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何用纯代码实现自定义宽度和间距的虚线边框?

    自定义宽度和间距的虚线边框 提问: 如何创建一个自定义宽度和间距的虚线边框,如下图所示: 元素宽度:8px元素高度:1px间距:2px圆角:4px 解答: 传统的解决方案通常涉及使用 border-image 引入切片的图片来实现。但是,这需要引入外部资源。本解答将提供一种纯代码的方法,使用 svg…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信