使用 Scrapy 框架进行多线程网页链接抓取教程(抓取.多线程.框架.链接.网页...)

wufei123 发布于 2025-09-11 阅读(1)

使用 scrapy 框架进行多线程网页链接抓取教程

本文将介绍如何使用 Python 的 Scrapy 框架,以更简洁高效的方式从单个 URL 中抓取所有 <a> 标签的 href 属性值,包括嵌套的 <a> 标签。Scrapy 框架内置多线程支持,并提供了强大的链接提取和页面抓取功能,能够显著简化网络爬虫的开发过程。我们将提供一个无需创建完整 Scrapy 项目的示例代码,并介绍如何将其结果保存到 CSV 文件中。

Scrapy 简介

Scrapy 是一个强大的 Python 框架,专门用于网络爬虫。它提供了高效的异步处理、链接提取、数据提取等功能,并支持自定义中间件和管道,可以灵活地处理各种复杂的爬取需求。

快速上手:无需创建完整项目

通常,使用 Scrapy 需要创建一个包含多个文件和文件夹的项目。但为了快速上手,我们可以将所有代码放在一个文件中,并直接运行。

以下是一个示例代码,用于从 https://www.tradeindia.com/ 抓取所有链接,并将结果保存到 output.csv 文件中:

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    allowed_domains = ['www.tradeindia.com']
    start_urls = ['https://www.tradeindia.com/']

    def parse(self, response):
        print('\n>>> url:', response.url, '\n')

        links = response.css('a::attr(href)').extract()

        # 创建 item,用于保存到 CSV 文件
        for url in links:
            yield {'url': url}

        # 创建新的请求,用于抓取下一个页面
        for url in links:
            yield response.follow(url)

# ---  无需创建项目即可运行,并将结果保存到 `output.csv` 文件 ---

from scrapy.crawler import CrawlerProcess

c = CrawlerProcess({
    'USER_AGENT': 'Mozilla/5.0',
    'CONCURRENT_REQUESTS': 10,  # 默认值: 16
    #'RANDOMIZE_DOWNLOAD_DELAY': True,  # 默认值: True
    'DOWNLOAD_DELAY': 2,  # 模拟真实用户行为,设置请求之间的延迟,范围从 `0.5*delay` 到 `1.5*delay`
    #'LOG_LEVEL': 'INFO',       # 减少屏幕上的信息输出
    'FEEDS': {'output.csv': {'format': 'csv'}}, # 保存到 CSV, JSON 或 XML 文件
})

c.crawl(MySpider)
c.start()

代码解释:

PIA PIA

全面的AI聚合平台,一站式访问所有顶级AI模型

PIA226 查看详情 PIA
  1. MySpider 类: 继承自 scrapy.Spider,是爬虫的核心类。
    • name: 爬虫的名称,用于区分不同的爬虫。
    • allowed_domains: 允许爬取的域名,防止爬虫爬到其他网站。
    • start_urls: 爬虫启动时要爬取的 URL 列表。
    • parse(self, response): 解析响应的函数,用于提取数据和生成新的请求。
  2. response.css('a::attr(href)').extract(): 使用 CSS 选择器提取所有 <a> 标签的 href 属性值。
  3. yield {'url': url}: 创建一个 item,其中包含提取的 URL,Scrapy 会自动将其保存到 output.csv 文件中。
  4. yield response.follow(url): 创建一个新的请求,用于爬取提取的 URL。response.follow() 会自动处理相对 URL 和绝对 URL。
  5. CrawlerProcess: 创建一个 Scrapy 进程,用于运行爬虫。
    • USER_AGENT: 设置用户代理,模拟浏览器行为。
    • CONCURRENT_REQUESTS: 设置并发请求数,控制爬虫的速度。
    • DOWNLOAD_DELAY: 设置下载延迟,模拟真实用户行为,防止被网站封禁。
    • FEEDS: 设置输出文件,指定文件格式为 CSV。

运行代码:

将代码保存为 script.py 文件,然后在命令行中运行:

python script.py

运行完成后,会在当前目录下生成一个 output.csv 文件,其中包含所有提取的链接。

优化和注意事项
  • LinkExtractor 和 CrawlSpider: Scrapy 提供了 LinkExtractor 类和 CrawlSpider 类,可以更方便地提取链接和定义爬取规则。CrawlSpider 特别适合于需要递归爬取多个页面的场景。
  • robots.txt: 遵守网站的 robots.txt 协议,避免爬取不允许爬取的页面。
  • 异常处理: 在 parse 函数中添加异常处理,防止因页面错误导致爬虫崩溃。
  • 反爬策略: 许多网站都有反爬策略,例如限制请求频率、验证码等。需要根据实际情况采取相应的措施,例如使用代理 IP、设置合理的下载延迟等。
总结

使用 Scrapy 框架可以大大简化网络爬虫的开发过程。通过简单的几行代码,就可以实现多线程的网页链接抓取,并将结果保存到文件中。Scrapy 提供了强大的功能和灵活的扩展性,可以满足各种复杂的爬取需求。

以上就是使用 Scrapy 框架进行多线程网页链接抓取教程的详细内容,更多请关注知识资源分享宝库其它相关文章!

相关标签: css python js json 网络爬虫 浏览器 ai 爬虫 并发请求 lsp Python 中间件 css scrapy 递归 继承 线程 多线程 并发 异步 href 选择器 https 大家都在看: Django 模板中使用css, javascript css caption-side属性怎么用 python+pycharm+django admin css样式问题解决方案 使用BeautifulSoup高效查找HTML元素:解决注释与CSS类选择难题 非前后端分离项目中,如何用CSS伪元素有效对抗爬虫?

标签:  抓取 多线程 框架 

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。