本文将介绍如何使用 Python 的 Scrapy 框架,以更简洁高效的方式从单个 URL 中抓取所有 <a> 标签的 href 属性值,包括嵌套的 <a> 标签。Scrapy 框架内置多线程支持,并提供了强大的链接提取和页面抓取功能,能够显著简化网络爬虫的开发过程。我们将提供一个无需创建完整 Scrapy 项目的示例代码,并介绍如何将其结果保存到 CSV 文件中。
Scrapy 简介Scrapy 是一个强大的 Python 框架,专门用于网络爬虫。它提供了高效的异步处理、链接提取、数据提取等功能,并支持自定义中间件和管道,可以灵活地处理各种复杂的爬取需求。
快速上手:无需创建完整项目通常,使用 Scrapy 需要创建一个包含多个文件和文件夹的项目。但为了快速上手,我们可以将所有代码放在一个文件中,并直接运行。
以下是一个示例代码,用于从 https://www.tradeindia.com/ 抓取所有链接,并将结果保存到 output.csv 文件中:
import scrapy class MySpider(scrapy.Spider): name = 'myspider' allowed_domains = ['www.tradeindia.com'] start_urls = ['https://www.tradeindia.com/'] def parse(self, response): print('\n>>> url:', response.url, '\n') links = response.css('a::attr(href)').extract() # 创建 item,用于保存到 CSV 文件 for url in links: yield {'url': url} # 创建新的请求,用于抓取下一个页面 for url in links: yield response.follow(url) # --- 无需创建项目即可运行,并将结果保存到 `output.csv` 文件 --- from scrapy.crawler import CrawlerProcess c = CrawlerProcess({ 'USER_AGENT': 'Mozilla/5.0', 'CONCURRENT_REQUESTS': 10, # 默认值: 16 #'RANDOMIZE_DOWNLOAD_DELAY': True, # 默认值: True 'DOWNLOAD_DELAY': 2, # 模拟真实用户行为,设置请求之间的延迟,范围从 `0.5*delay` 到 `1.5*delay` #'LOG_LEVEL': 'INFO', # 减少屏幕上的信息输出 'FEEDS': {'output.csv': {'format': 'csv'}}, # 保存到 CSV, JSON 或 XML 文件 }) c.crawl(MySpider) c.start()
代码解释:

全面的AI聚合平台,一站式访问所有顶级AI模型


-
MySpider 类: 继承自 scrapy.Spider,是爬虫的核心类。
- name: 爬虫的名称,用于区分不同的爬虫。
- allowed_domains: 允许爬取的域名,防止爬虫爬到其他网站。
- start_urls: 爬虫启动时要爬取的 URL 列表。
- parse(self, response): 解析响应的函数,用于提取数据和生成新的请求。
- response.css('a::attr(href)').extract(): 使用 CSS 选择器提取所有 <a> 标签的 href 属性值。
- yield {'url': url}: 创建一个 item,其中包含提取的 URL,Scrapy 会自动将其保存到 output.csv 文件中。
- yield response.follow(url): 创建一个新的请求,用于爬取提取的 URL。response.follow() 会自动处理相对 URL 和绝对 URL。
-
CrawlerProcess: 创建一个 Scrapy 进程,用于运行爬虫。
- USER_AGENT: 设置用户代理,模拟浏览器行为。
- CONCURRENT_REQUESTS: 设置并发请求数,控制爬虫的速度。
- DOWNLOAD_DELAY: 设置下载延迟,模拟真实用户行为,防止被网站封禁。
- FEEDS: 设置输出文件,指定文件格式为 CSV。
运行代码:
将代码保存为 script.py 文件,然后在命令行中运行:
python script.py
运行完成后,会在当前目录下生成一个 output.csv 文件,其中包含所有提取的链接。
优化和注意事项- LinkExtractor 和 CrawlSpider: Scrapy 提供了 LinkExtractor 类和 CrawlSpider 类,可以更方便地提取链接和定义爬取规则。CrawlSpider 特别适合于需要递归爬取多个页面的场景。
- robots.txt: 遵守网站的 robots.txt 协议,避免爬取不允许爬取的页面。
- 异常处理: 在 parse 函数中添加异常处理,防止因页面错误导致爬虫崩溃。
- 反爬策略: 许多网站都有反爬策略,例如限制请求频率、验证码等。需要根据实际情况采取相应的措施,例如使用代理 IP、设置合理的下载延迟等。
使用 Scrapy 框架可以大大简化网络爬虫的开发过程。通过简单的几行代码,就可以实现多线程的网页链接抓取,并将结果保存到文件中。Scrapy 提供了强大的功能和灵活的扩展性,可以满足各种复杂的爬取需求。
以上就是使用 Scrapy 框架进行多线程网页链接抓取教程的详细内容,更多请关注知识资源分享宝库其它相关文章!
相关标签: css python js json 网络爬虫 浏览器 ai 爬虫 并发请求 lsp Python 中间件 css scrapy 递归 继承 线程 多线程 并发 异步 href 选择器 https 大家都在看: Django 模板中使用css, javascript css caption-side属性怎么用 python+pycharm+django admin css样式问题解决方案 使用BeautifulSoup高效查找HTML元素:解决注释与CSS类选择难题 非前后端分离项目中,如何用CSS伪元素有效对抗爬虫?
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。