Golang实现简单爬虫怎么做 组合net/http与goquery解析HTML

答案:使用Golang实现爬虫需先用net/http发送请求并处理错误、超时和重定向,再通过goquery结合CSS选择器解析HTML提取数据,最后利用goroutine和channel实现并发抓取,配合WaitGroup同步,数据可存为文件或数据库。

golang实现简单爬虫怎么做 组合net/http与goquery解析html

用Golang实现一个简单的爬虫,核心思路其实就是两步:先用标准库

net/http

发出HTTP请求,获取网页的HTML内容;接着,利用

goquery

这个库来解析HTML,像jQuery一样方便地定位和提取你想要的数据。这套组合拳下来,处理大部分静态网页数据抓取的需求,基本就够用了。

解决方案

说实话,第一次用Go写爬虫,

net/http

的简洁性让我有点惊喜。它把HTTP请求的复杂性封装得很好,你只需要关心你想请求什么URL,以及如何处理返回的数据。而当HTML内容到手后,传统的字符串匹配或者正则表达,面对复杂的网页结构简直是噩梦。这时候,

goquery

就成了救星,它把前端开发中熟悉的CSS选择器带到了后端,大大提升了开发效率和代码的可读性。

下面是一个基础的实现,展示了如何抓取一个网页的标题和所有链接:

package mainimport (    "fmt"    "log"    "net/http"    "strings"    "github.com/PuerkitoBio/goquery")func main() {    // 目标URL,这里以一个示例网站为例,实际使用时请替换    url := "http://example.com" // 请替换成实际可访问的URL    // 发送HTTP GET请求    resp, err := http.Get(url)    if err != nil {        log.Fatalf("请求URL失败: %v", err)        return    }    defer resp.Body.Close() // 确保在函数结束时关闭响应体    // 检查HTTP状态码    if resp.StatusCode != http.StatusOK {        log.Fatalf("HTTP请求失败,状态码: %d %s", resp.StatusCode, resp.Status)        return    }    // 使用goquery解析HTML文档    doc, err := goquery.NewDocumentFromReader(resp.Body)    if err != nil {        log.Fatalf("解析HTML文档失败: %v", err)        return    }    // 提取网页标题    title := doc.Find("title").Text()    fmt.Printf("网页标题: %sn", title)    fmt.Println("n所有链接:")    // 遍历所有a标签,提取href属性和链接文本    doc.Find("a").Each(func(i int, s *goquery.Selection) {        href, exists := s.Attr("href")        if exists {            linkText := strings.TrimSpace(s.Text())            // 简单过滤空链接文本,或只显示非锚点链接            if linkText != "" && !strings.HasPrefix(href, "#") {                fmt.Printf("- 链接 %d: %s (%s)n", i+1, linkText, href)            }        }    })    // 尝试提取某个特定元素,比如第一个段落    firstParagraph := doc.Find("p").First().Text()    if firstParagraph != "" {        fmt.Printf("n第一个段落内容: %sn", strings.TrimSpace(firstParagraph))    } else {        fmt.Println("n未找到任何段落。")    }}

这段代码展示了最基本的爬取和解析流程。从请求到错误处理,再到用

goquery

定位元素,一切都显得相当直观。

立即学习“go语言免费学习笔记(深入)”;

Golang爬虫如何处理HTTP请求错误与重定向?

在实际的爬虫开发中,网络波动或者目标网站的反爬机制,常常让请求变得不可靠。光是简单的

http.Get()

可能不够用,我们需要更精细的控制。

首先是错误处理。除了检查

http.Get()

返回的错误,我们还需要关注

resp.StatusCode

。一个非200的状态码(比如404 Not Found,403 Forbidden,500 Internal Server Error)意味着请求没有成功,这时候应该根据具体情况决定是重试、记录日志还是直接跳过。

超时设置也是个关键点。默认的HTTP请求可能不会设置超时,导致程序长时间阻塞。我们可以创建一个自定义的

http.Client

来配置超时:

client := &http.Client{    Timeout: 10 * time.Second, // 设置10秒的请求超时}resp, err := client.Get(url)// ... 后续处理

User-Agent的设置也挺重要。很多网站会根据User-Agent来判断请求来源,如果发现是爬虫,可能会直接拒绝。模拟浏览器行为,设置一个常见的User-Agent头是个好习惯:

req, err := http.NewRequest("GET", url, nil)if err != nil {    log.Fatalf("创建请求失败: %v", err)}req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36")client := &http.Client{}resp, err := client.Do(req)// ... 后续处理

至于重定向,

net/http

http.Client

默认是会自动处理3xx重定向的。但有时候,我们可能需要禁用重定向,或者在重定向发生时执行一些自定义逻辑。比如,你想知道最终重定向到的URL,或者想限制重定向的次数。这可以通过设置

http.Client

CheckRedirect

字段来实现:

client := &http.Client{    CheckRedirect: func(req *http.Request, via []*http.Request) error {        if len(via) >= 10 { // 限制重定向次数,防止无限循环            return errors.New("stopped after 10 redirects")        }        fmt.Printf("重定向到: %s (原URL: %s)n", req.URL.String(), via[0].URL.String())        return nil // 返回nil表示允许重定向    },}// 如果想禁用重定向,直接返回http.ErrUseLastResponse即可// CheckRedirect: func(req *http.Request, via []*http.Request) error {//     return http.ErrUseLastResponse// }

这些细节的考量,能让你的爬虫在面对复杂网络环境时,显得更加健壮和可靠。

goquery在复杂HTML结构中如何精准定位元素?

说完了请求,接下来的重头戏自然是数据的提取。

goquery

之所以好用,很大程度上是因为它对CSS选择器的支持。如果你熟悉前端开发,那么

goquery

的API几乎是无缝衔接。

要精准定位元素,关键在于灵活运用CSS选择器。

基本选择器:

tagName

:选择所有指定标签的元素,比如

"div"

"p"

.className

:选择所有带有指定class的元素,比如

".product-title"

#idName

:选择带有指定ID的元素,比如

"#main-content"

组合选择器:

parent child

:后代选择器,选择

parent

元素下的所有

child

元素。例如

"div p"

选择所有在

div

标签内的

p

标签。

parent > child

:子元素选择器,选择

parent

元素的直接

child

元素。例如

"ul > li"

tag.className

:同时匹配标签和class,例如

"span.price"

[attribute=value]

:属性选择器,选择带有特定属性和值的元素。例如

"a[target=_blank]"

伪类选择器:

:nth-child(n)

:选择父元素下的第n个子元素。

:first-child

,

:last-child

:选择第一个/最后一个子元素。

goquery

Find()

方法就是用来接收这些CSS选择器的。它会返回一个

*goquery.Selection

对象,这个对象代表了所有匹配到的元素集合。你可以继续在这个

Selection

对象上调用

Find()

进行链式操作,从而深入到更复杂的嵌套结构中。

举个例子,假设你有一个产品列表,每个产品在一个

div

中,

div

有一个

class="product-item"

,产品标题在内部的一个

h3

标签里,链接在

h3

里的

a

标签里:

Awesome Product

$19.99

要提取产品标题和价格,你可以这么做:

doc.Find(".product-item").Each(func(i int, s *goquery.Selection) {    // 在当前产品项的Selection中查找标题和价格    title := s.Find(".product-title a").Text()    href, _ := s.Find(".product-title a").Attr("href")    price := s.Find(".price").Text()    fmt.Printf("产品 %d: 标题=%s, 链接=%s, 价格=%sn", i+1, title, href, price)})

这里的关键是

s.Find()

,它是在当前迭代的

product-item

元素内部进行查找,而不是从整个文档的根部开始,这大大提高了定位的准确性。

此外,

goquery

还提供了

First()

,

Last()

,

Eq(index)

等方法来获取

Selection

集合中的特定元素,以及

Text()

用于获取元素的文本内容,

Attr(name)

用于获取元素的属性值。这些方法组合起来,足以应对绝大多数的HTML解析场景。

如何让Golang爬虫更健壮:并发与数据存储策略?

一个简单的爬虫可能只抓取一两个页面,但如果面对成千上万的页面,甚至需要持续抓取,那么并发和数据存储就成了绕不开的话题。

Go语言天生就是为并发而设计的,

goroutine

channel

是其并发模型的核心。利用它们,我们可以轻松地实现并发抓取,显著提高爬取效率。

基本的并发抓取思路是:

生产者-消费者模型:一个或多个

goroutine

负责生成待抓取的URL(生产者),将URL发送到一个

channel

中。工作池模型:多个

goroutine

作为消费者,从

channel

中接收URL,然后并发地执行抓取和解析任务。结果收集:抓取到的数据也可以通过另一个

channel

发送给一个专门的

goroutine

进行统一处理或存储。同步等待:使用

sync.WaitGroup

来等待所有抓取

goroutine

完成任务。

// 这是一个简化的并发抓取框架示例func worker(id int, urls <-chan string, results chan<- string, wg *sync.WaitGroup) {    defer wg.Done()    for url := range urls {        fmt.Printf("工作者 %d 正在抓取: %sn", id, url)        // 模拟抓取和解析        // resp, err := http.Get(url)        // doc, err := goquery.NewDocumentFromReader(resp.Body)        // ... 实际的抓取解析逻辑        time.Sleep(time.Millisecond * 500) // 模拟网络延迟和处理时间        results <- fmt.Sprintf("抓取完成: %s", url)    }}func main() {    // ... 前面省略的导入和主函数开头    urlsToCrawl := []string{        "http://example.com/page1",        "http://example.com/page2",        "http://example.com/page3",        // ... 更多URL    }    numWorkers := 5 // 设定并发工作者数量    urls := make(chan string, len(urlsToCrawl))    results := make(chan string, len(urlsToCrawl))    var wg sync.WaitGroup    // 启动工作者goroutine    for i := 1; i <= numWorkers; i++ {        wg.Add(1)        go worker(i, urls, results, &wg)    }    // 将URL发送到urls channel    for _, url := range urlsToCrawl {        urls <- url    }    close(urls) // 关闭urls channel,通知worker没有更多URL了    // 等待所有worker完成    wg.Wait()    close(results) // 关闭results channel    // 收集并处理结果    for res := range results {        fmt.Println(res)    }    fmt.Println("所有抓取任务完成。")}

当然,并发抓取还需要考虑速率限制(避免对目标网站造成过大压力,甚至被封禁IP)、错误重试机制IP代理池等,这些都是让爬虫更健壮的进阶话题。

数据存储方面,取决于你的需求和数据量:

简单场景:如果数据量不大,直接打印到控制台,或者保存到TXT文件CSV文件(使用

encoding/csv

包)或JSON文件(使用

encoding/json

包)都是不错的选择。CSV适合结构化表格数据,JSON适合半结构化数据。中等规模:可以考虑使用SQLite。它是一个轻量级的嵌入式数据库,不需要独立的服务器进程,直接以文件形式存在,非常适合本地开发和中小型爬虫项目。Go有成熟的SQLite驱动。大规模和持久化:对于需要长期存储、支持复杂查询和高并发读写的数据,关系型数据库(如PostgreSQL、MySQL)或NoSQL数据库(如MongoDB、Redis)是更好的选择。Go的标准库

database/sql

配合相应的驱动可以很方便地操作这些数据库。

选择哪种存储方式,最终还是取决于你爬取的数据量、数据结构以及后续如何使用这些数据。

以上就是Golang实现简单爬虫怎么做 组合net/http与goquery解析HTML的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1401250.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月15日 17:40:37
下一篇 2025年12月15日 17:40:55

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • 如何用dom2img解决网页打印样式不显示的问题?

    用dom2img解决网页打印样式不显示的问题 想将网页以所见即打印的的效果呈现,需要采取一些措施,特别是在使用了bootstrap等大量采用外部css样式的框架时。 问题根源 在常规打印操作中,浏览器通常会忽略css样式等非必要的页面元素,导致打印出的结果与网页显示效果不一致。这是因为打印机制只识别…

    2025年12月24日
    800
  • 如何用 CSS 模拟不影响其他元素的链接移入效果?

    如何模拟 css 中链接的移入效果 在 css 中,模拟移入到指定链接的效果尤为复杂,因为链接的移入效果不影响其他元素。要实现这种效果,最简单的方法是利用放大,例如使用 scale 或 transform 元素的 scale 属性。下面提供两种方法: scale 属性: .goods-item:ho…

    2025年12月24日
    700
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • PC端H5项目如何实现适配:流式布局、响应式设计和两套样式?

    PC端的适配方案及PC与H5兼顾的实现方案探讨 在开发H5项目时,常用的屏幕适配方案是postcss-pxtorem或postcss-px-to-viewport,通常基于iPhone 6标准作为设计稿。但对于PC端网项目,处理不同屏幕大小需要其他方案。 PC端屏幕适配方案 PC端屏幕适配一般采用流…

    2025年12月24日
    300
  • CSS 元素设置 10em 和 transition 后为何没有放大效果?

    CSS 元素设置 10em 和 transition 后为何无放大效果? 你尝试设置了一个 .box 类,其中包含字体大小为 10em 和过渡持续时间为 2 秒的文本。当你载入到页面时,它没有像 YouTube 视频中那样产生放大效果。 原因可能在于你将 CSS 直接写在页面中 在你的代码示例中,C…

    2025年12月24日
    400
  • 如何实现类似横向U型步骤条的组件?

    横向U型步骤条寻求替代品 希望找到类似横向U型步骤条的组件或 CSS 实现。 潜在解决方案 根据给出的参考图片,类似的组件有: 图片所示组件:图片提供了组件的外观,但没有提供具体的实现方式。参考链接:提供的链接指向了 SegmentFault 上的另一个问题,其中可能包含相关的讨论或解决方案建议。 …

    2025年12月24日
    800
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何优化CSS Grid布局中子元素排列和宽度问题?

    css grid布局中的优化问题 在使用css grid布局时可能会遇到以下问题: 问题1:无法控制box1中li的布局 box1设置了grid-template-columns: repeat(auto-fill, 20%),这意味着容器将自动填充尽可能多的20%宽度的列。当li数量大于5时,它们…

    2025年12月24日
    800
  • SASS 中的 Mixins

    mixin 是 css 预处理器提供的工具,虽然它们不是可以被理解的函数,但它们的主要用途是重用代码。 不止一次,我们需要创建多个类来执行相同的操作,但更改单个值,例如字体大小的多个类。 .fs-10 { font-size: 10px;}.fs-20 { font-size: 20px;}.fs-…

    2025年12月24日
    000
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • CSS mask 属性无法加载图片:浏览器问题还是代码错误?

    CSS mask 属性请求图片失败 在使用 CSS mask 属性时,您遇到了一个问题,即图片没有被请求获取。这可能是由于以下原因: 浏览器问题:某些浏览器可能在处理 mask 属性时存在 bug。尝试更新到浏览器的最新版本。代码示例中的其他信息:您提供的代码示例中还包含其他 HTML 和 CSS …

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何用 CSS 实现链接移入效果?

    css 中实现链接移入效果的技巧 在 css 中模拟链接的移入效果可能并不容易,因为它们不会影响周围元素。但是,有几个方法可以实现类似的效果: 1. 缩放 最简单的方法是使用 scale 属性,它会放大元素。以下是一个示例: 立即学习“前端免费学习笔记(深入)”; .goods-item:hover…

    2025年12月24日
    000
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 如何用 CSS 实现类似卡券的缺口效果?

    类似卡券的布局如何实现 想要实现类似卡券的布局,可以使用遮罩(mask)来实现缺口效果。 示例代码: .card { -webkit-mask: radial-gradient(circle at 20px, #0000 20px, red 0) -20px;} 效果: 立即学习“前端免费学习笔记(…

    2025年12月24日
    000
  • 如何用纯代码实现自定义宽度和间距的虚线边框?

    自定义宽度和间距的虚线边框 提问: 如何创建一个自定义宽度和间距的虚线边框,如下图所示: 元素宽度:8px元素高度:1px间距:2px圆角:4px 解答: 传统的解决方案通常涉及使用 border-image 引入切片的图片来实现。但是,这需要引入外部资源。本解答将提供一种纯代码的方法,使用 svg…

    2025年12月24日
    000
  • PC端、PC兼响应式H5项目,如何选择最佳适配方案?

    多屏适配:PC端、PC兼响应式H5项目解决方案 针对PC端的网页适配,业界普遍采用以下方案: 流媒体查询:根据设备屏幕宽度应用不同的样式表,实现不同屏幕尺寸的适配。栅格系统:将布局划分为多个网格,根据屏幕宽度调整网格的显示和隐藏,实现自适应布局。 一般情况下,设计师设计PC页面时,会以特定像素宽度为…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信