Golang编写简单爬虫 net/http与goquery结合

答案:使用Golang的net/http发起请求,结合goquery解析HTML,通过CSS选择器提取数据,实现高效轻量级爬虫

golang编写简单爬虫 net/http与goquery结合

用Golang结合

net/http

goquery

编写一个简单的爬虫,其核心在于利用

net/http

标准库来发起HTTP请求并获取网页内容,再通过

goquery

这个强大的库,以类似jQuery的CSS选择器能力进行高效的DOM解析和数据提取。在我看来,这套组合拳,简直是轻量级爬虫开发的黄金搭档,既保持了Go语言的高效并发特性,又提供了jQuery般便捷的DOM操作体验,让原本繁琐的HTML解析变得异常优雅。

解决方案

编写一个基于

net/http

goquery

的Go语言爬虫,通常会遵循几个步骤:发起HTTP请求、处理响应、解析HTML并提取数据。下面是一个简单的例子,演示如何抓取一个虚构的博客文章列表,提取每篇文章的标题和链接。

package mainimport (    "fmt"    "log"    "net/http"    "os"    "strings"    "github.com/PuerkitoBio/goquery")// Article represents a scraped article with its title and URL.type Article struct {    Title string    URL   string}func main() {    // 定义目标URL    targetURL := "http://example.com/blog" // 假设这是一个博客列表页    // 发起HTTP GET请求    resp, err := http.Get(targetURL)    if err != nil {        log.Fatalf("发起HTTP请求失败: %v", err)    }    defer func() {        if closeErr := resp.Body.Close(); closeErr != nil {            log.Printf("关闭响应体失败: %v", closeErr)        }    }()    // 检查HTTP状态码    if resp.StatusCode != http.StatusOK {        log.Fatalf("请求失败,状态码: %d %s", resp.StatusCode, resp.Status)    }    // 使用goquery创建一个新的文档    doc, err := goquery.NewDocumentFromReader(resp.Body)    if err != nil {        log.Fatalf("解析HTML文档失败: %v", err)    }    var articles []Article    // 使用CSS选择器查找文章列表项    // 假设每篇文章在一个 class 为 "post-item" 的 div 中,标题在 h2 标签内,链接在 a 标签的 href 属性中    doc.Find(".post-item").Each(func(i int, s *goquery.Selection) {        title := s.Find("h2 a").Text()        href, exists := s.Find("h2 a").Attr("href")        if exists && title != "" {            // 确保链接是绝对路径,如果不是,则进行拼接            if !strings.HasPrefix(href, "http") {                // 简单的拼接,实际情况可能需要更复杂的URL解析                href = targetURL + href // 假设是相对路径            }            articles = append(articles, Article{Title: strings.TrimSpace(title), URL: href})        }    })    // 打印提取到的文章信息    if len(articles) == 0 {        fmt.Println("没有找到任何文章。请检查选择器或目标网站结构。")    } else {        fmt.Println("成功提取到文章列表:")        for _, article := range articles {            fmt.Printf("标题: %sn链接: %sn---n", article.Title, article.URL)        }    }}// 注意:实际运行时,请将 targetURL 替换为真实可访问的网站URL,// 并根据目标网站的HTML结构调整 goquery 的选择器。// 例如,如果目标网站是 'https://news.ycombinator.com/',你可能需要这样的选择器:// doc.Find(".athing").Each(func(i int, s *goquery.Selection) {//     title := s.Find(".titleline a").Text()//     href, exists := s.Find(".titleline a").Attr("href")//     // ... 后续处理// })

这段代码展示了一个基础的爬虫骨架。我们首先用

http.Get

获取网页内容,然后用

goquery.NewDocumentFromReader

将响应体转换为可操作的DOM对象。接着,通过

doc.Find(".post-item").Each(...)

,我们遍历所有匹配

.post-item

选择器的元素,并在每个元素内部进一步查找

h2 a

标签,提取其文本作为标题,

href

属性作为链接。这里还加入了一个简单的相对路径处理,这在实际爬虫中是常见且必要的。

为什么选择Go语言和goquery来开发爬虫?

我个人对Go语言和

goquery

的组合情有独钟,这并非偶然。选择它们来开发爬虫,背后有几个非常实际且有力的理由:

立即学习“go语言免费学习笔记(深入)”;

Go语言本身就为高并发、高性能而生。它的Goroutine和Channel机制,让编写并发代码变得异常简单和高效。爬虫本质上就是I/O密集型任务,需要同时处理大量的网络请求。Go的并发模型,能够以极低的资源消耗启动成千上万个并发请求,这在其他语言中可能需要复杂的线程池或异步框架才能实现。我曾经尝试用Python写一些大规模爬虫,虽然生态丰富,但在高并发场景下,GIL(全局解释器锁)和异步IO的调试成本,有时会让人感到头疼。Go语言在这里提供了一种更为直接和高效的解决方案,它的编译型特性也意味着更快的执行速度和更低的内存占用,部署起来也特别省心,一个静态编译的二进制文件就能搞定一切。

至于

goquery

,它简直是前端开发者或熟悉jQuery的人的福音。我记得刚开始接触爬虫时,处理HTML文档是一件很痛苦的事情,要么是复杂的正则表达式,要么是冗长的DOM遍历。

goquery

通过提供jQuery风格的API,让CSS选择器直接作用于Go的HTML解析结果,这让数据提取变得直观、简洁且不易出错。你不需要重新学习一套新的API,直接用熟悉的CSS选择器就能精准定位元素,这种“所见即所得”的开发体验,大大提升了开发效率。它底层基于

golang.org/x/net/html

库,解析性能也相当可靠,不会成为瓶颈。所以,对我来说,Go的并发能力是骨架,

goquery

则是那双能精准摘取数据的巧手,两者结合,事半功倍。

在Go语言爬虫开发中,如何处理常见的反爬机制?

反爬机制就像一场猫鼠游戏,没有一劳永逸的解决方案,但我们总能找到一些策略来应对。在Go语言爬虫中,处理常见的反爬机制,通常需要我们模拟更真实的浏览器行为,并适当地控制请求节奏。

一个最基础的应对是设置User-Agent请求头。很多网站会根据User-Agent来判断请求来源是浏览器还是爬虫。默认的Go HTTP客户端User-Agent通常是

Go-http-client/1.1

,这很容易被识别。我们可以在请求中加入

req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36")

这样的代码,模拟一个主流浏览器的User-Agent。

// ...req, err := http.NewRequest("GET", targetURL, nil)if err != nil {    log.Fatalf("创建请求失败: %v", err)}req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36")client := &http.Client{}resp, err := client.Do(req)// ...

IP代理池是另一个重要的策略,尤其当网站对单个IP的访问频率有严格限制时。我们可以维护一个代理IP列表,并在每次请求时随机选择一个代理IP。Go的

http.Client

可以很方便地配置

Transport

来使用代理:

proxyURL, _ := url.Parse("http://your-proxy-ip:port") // 替换为你的代理IP和端口client := &http.Client{    Transport: &http.Transport{        Proxy: http.ProxyURL(proxyURL),    },}// 使用这个client发起请求resp, err := client.Do(req)

当然,更复杂的代理池可能涉及代理可用性检测、轮换策略等。

请求频率控制同样关键。频繁的请求会触发网站的限流机制。最简单的方式是使用

time.Sleep()

在每次请求之间引入延迟。更高级的策略是实现令牌桶或漏桶算法,以更平滑地控制请求速率。

// 简单的延迟time.Sleep(2 * time.Second) // 每次请求前等待2秒// 或者使用channel限制并发和频率// 假设你有一个workCh channel来分发任务// var rateLimiter = time.Tick(time.Millisecond * 500) // 每500毫秒生成一个"令牌"// for task := range workCh {//     <-rateLimiter // 阻塞直到有令牌可用//     go processTask(task)// }

对于需要Cookies或Session管理的网站,

http.Client

Jar

字段可以自动处理Cookie的存储和发送:

jar, _ := cookiejar.New(nil)client := &http.Client{    Jar: jar, // 客户端会自动管理cookies}// ...

至于JavaScript渲染的页面验证码,这就超出了

net/http

goquery

的范畴了。对于JS渲染,我们可能需要引入无头浏览器(如

chromedp

),它能模拟真实的浏览器执行JS并渲染页面。验证码则需要结合OCR技术或人工打码平台。这些都是更高级的爬虫技术,在编写简单爬虫时,通常会先选择那些不需要处理这些复杂机制的目标。

总的来说,处理反爬机制是一个不断学习和适应的过程。关键在于理解目标网站的防护策略,然后有针对性地模拟真实用户行为,而非盲目地堆砌技术。

如何优化Go语言爬虫的性能和并发处理?

Go语言天生就擅长并发,但如果用不好,它的并发优势也可能带来资源耗尽的问题。所以,优化Go语言爬虫的性能和并发处理,关键在于精细的控制和合理的资源管理。

首先,并发控制是重中之重。无限制地启动Goroutine可能会耗尽系统资源,导致程序崩溃或效率低下。我们可以使用有缓冲的Channel或者

sync.WaitGroup

结合信号量模式来限制并发数量。

一个常见的模式是使用一个固定大小的Channel作为“工作池”或“信号量”:

// 假设有100个URL需要爬取urlsToCrawl := []string{"url1", "url2", ..., "url100"}maxConcurrency := 10 // 最大并发数sem := make(chan struct{}, maxConcurrency) // 信号量,容量为最大并发数var wg sync.WaitGroupfor _, url := range urlsToCrawl {    wg.Add(1)    sem <- struct{}{} // 获取一个信号量,如果满了会阻塞    go func(u string) {        defer wg.Done()        defer func() { <-sem }() // 释放信号量        // 这里执行爬取逻辑        fmt.Printf("正在爬取: %sn", u)        time.Sleep(time.Millisecond * 500) // 模拟网络请求和处理时间    }(url)}wg.Wait() // 等待所有Goroutine完成fmt.Println("所有URL爬取完成。")

通过

sem <- struct{}{}

<-sem

,我们确保了同时运行的爬取Goroutine不会超过

maxConcurrency

个。

其次,连接复用对HTTP请求性能至关重要。每次发起HTTP请求都重新建立TCP连接,会带来不必要的握手开销。

http.Client

默认会复用连接,但如果你的爬虫会访问大量不同的域名,或者你需要更精细的控制,可以自定义

http.Transport

来配置连接池的大小、空闲连接的超时时间等。

client := &http.Client{    Transport: &http.Transport{        MaxIdleConns:        100,              // 最大空闲连接数        IdleConnTimeout:     90 * time.Second, // 空闲连接超时时间        MaxConnsPerHost:     20,               // 每个host的最大连接数        DisableKeepAlives:   false,            // 启用Keep-Alive    },    Timeout: 30 * time.Second, // 整个请求的超时时间}// 使用这个client发起所有HTTP请求

错误处理与重试机制也不容忽视。网络抖动、目标网站临时故障等都可能导致请求失败。实现一个带指数退避(Exponential Backoff)的重试机制,可以在不给目标网站造成过大压力的前提下,提高爬虫的健壮性。

// 简单的重试逻辑maxRetries := 3for i := 0; i < maxRetries; i++ {    resp, err := client.Do(req)    if err == nil && resp.StatusCode == http.StatusOK {        // 成功,处理响应        // ...        resp.Body.Close()        break    }    log.Printf("请求失败或状态码异常,第%d次重试: %v", i+1, err)    time.Sleep(time.Duration(1<<(i+1)) * time.Second) // 指数退避    if resp != nil {        resp.Body.Close()    }}

最后,数据存储优化也是性能考量的一部分。如果爬取的数据量很大,频繁地单条写入数据库或文件系统可能会成为瓶颈。考虑批量写入数据库、使用消息队列(如Kafka、RabbitMQ)进行异步处理,或者将数据暂存到内存中,达到一定量后再进行持久化。

我个人觉得,Go的并发优势如果用不好,反而可能适得其反,导致资源耗尽。所以,精细的并发控制比无脑启动大量Goroutine更重要。这就像开跑车,不是踩油门到底就行,还得会刹车和转弯。合理的配置和策略,才能让Go爬虫既高效又稳定。

以上就是Golang编写简单爬虫 net/http与goquery结合的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1401984.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月15日 18:17:53
下一篇 2025年12月15日 18:18:07

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • 如何用dom2img解决网页打印样式不显示的问题?

    用dom2img解决网页打印样式不显示的问题 想将网页以所见即打印的的效果呈现,需要采取一些措施,特别是在使用了bootstrap等大量采用外部css样式的框架时。 问题根源 在常规打印操作中,浏览器通常会忽略css样式等非必要的页面元素,导致打印出的结果与网页显示效果不一致。这是因为打印机制只识别…

    2025年12月24日
    800
  • 如何用 CSS 模拟不影响其他元素的链接移入效果?

    如何模拟 css 中链接的移入效果 在 css 中,模拟移入到指定链接的效果尤为复杂,因为链接的移入效果不影响其他元素。要实现这种效果,最简单的方法是利用放大,例如使用 scale 或 transform 元素的 scale 属性。下面提供两种方法: scale 属性: .goods-item:ho…

    2025年12月24日
    700
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • PC端H5项目如何实现适配:流式布局、响应式设计和两套样式?

    PC端的适配方案及PC与H5兼顾的实现方案探讨 在开发H5项目时,常用的屏幕适配方案是postcss-pxtorem或postcss-px-to-viewport,通常基于iPhone 6标准作为设计稿。但对于PC端网项目,处理不同屏幕大小需要其他方案。 PC端屏幕适配方案 PC端屏幕适配一般采用流…

    2025年12月24日
    300
  • CSS 元素设置 10em 和 transition 后为何没有放大效果?

    CSS 元素设置 10em 和 transition 后为何无放大效果? 你尝试设置了一个 .box 类,其中包含字体大小为 10em 和过渡持续时间为 2 秒的文本。当你载入到页面时,它没有像 YouTube 视频中那样产生放大效果。 原因可能在于你将 CSS 直接写在页面中 在你的代码示例中,C…

    2025年12月24日
    400
  • 如何实现类似横向U型步骤条的组件?

    横向U型步骤条寻求替代品 希望找到类似横向U型步骤条的组件或 CSS 实现。 潜在解决方案 根据给出的参考图片,类似的组件有: 图片所示组件:图片提供了组件的外观,但没有提供具体的实现方式。参考链接:提供的链接指向了 SegmentFault 上的另一个问题,其中可能包含相关的讨论或解决方案建议。 …

    2025年12月24日
    800
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何优化CSS Grid布局中子元素排列和宽度问题?

    css grid布局中的优化问题 在使用css grid布局时可能会遇到以下问题: 问题1:无法控制box1中li的布局 box1设置了grid-template-columns: repeat(auto-fill, 20%),这意味着容器将自动填充尽可能多的20%宽度的列。当li数量大于5时,它们…

    2025年12月24日
    800
  • SASS 中的 Mixins

    mixin 是 css 预处理器提供的工具,虽然它们不是可以被理解的函数,但它们的主要用途是重用代码。 不止一次,我们需要创建多个类来执行相同的操作,但更改单个值,例如字体大小的多个类。 .fs-10 { font-size: 10px;}.fs-20 { font-size: 20px;}.fs-…

    2025年12月24日
    000
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • CSS mask 属性无法加载图片:浏览器问题还是代码错误?

    CSS mask 属性请求图片失败 在使用 CSS mask 属性时,您遇到了一个问题,即图片没有被请求获取。这可能是由于以下原因: 浏览器问题:某些浏览器可能在处理 mask 属性时存在 bug。尝试更新到浏览器的最新版本。代码示例中的其他信息:您提供的代码示例中还包含其他 HTML 和 CSS …

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何用 CSS 实现链接移入效果?

    css 中实现链接移入效果的技巧 在 css 中模拟链接的移入效果可能并不容易,因为它们不会影响周围元素。但是,有几个方法可以实现类似的效果: 1. 缩放 最简单的方法是使用 scale 属性,它会放大元素。以下是一个示例: 立即学习“前端免费学习笔记(深入)”; .goods-item:hover…

    2025年12月24日
    000
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 如何用 CSS 实现类似卡券的缺口效果?

    类似卡券的布局如何实现 想要实现类似卡券的布局,可以使用遮罩(mask)来实现缺口效果。 示例代码: .card { -webkit-mask: radial-gradient(circle at 20px, #0000 20px, red 0) -20px;} 效果: 立即学习“前端免费学习笔记(…

    2025年12月24日
    000
  • 如何用纯代码实现自定义宽度和间距的虚线边框?

    自定义宽度和间距的虚线边框 提问: 如何创建一个自定义宽度和间距的虚线边框,如下图所示: 元素宽度:8px元素高度:1px间距:2px圆角:4px 解答: 传统的解决方案通常涉及使用 border-image 引入切片的图片来实现。但是,这需要引入外部资源。本解答将提供一种纯代码的方法,使用 svg…

    2025年12月24日
    000
  • PC端、PC兼响应式H5项目,如何选择最佳适配方案?

    多屏适配:PC端、PC兼响应式H5项目解决方案 针对PC端的网页适配,业界普遍采用以下方案: 流媒体查询:根据设备屏幕宽度应用不同的样式表,实现不同屏幕尺寸的适配。栅格系统:将布局划分为多个网格,根据屏幕宽度调整网格的显示和隐藏,实现自适应布局。 一般情况下,设计师设计PC页面时,会以特定像素宽度为…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信