扫码一下
查看教程更方便
Stats Collector 是 Scrapy 提供的一种工具,用于以键/值的形式收集统计信息,并使用 Crawler API 访问它(Crawler 提供对所有 Scrapy 核心组件的访问)。 统计收集器为每个蜘蛛提供一个统计表,其中统计收集器在蜘蛛打开时自动打开,并在蜘蛛关闭时关闭统计收集器。
以下代码使用 stats
属性访问统计信息收集器。
class ExtensionThatAccessStats(object):
def __init__(self, stats):
self.stats = stats
@classmethod
def from_crawler(cls, crawler):
return cls(crawler.stats)
下表显示了可与统计信息收集器一起使用的各种选项
序号 | 参数 | 描述 |
---|---|---|
1 |
|
它用于设置统计值。 |
2 |
|
它增加了统计值。 |
3 |
|
我们可以设置统计值,仅当大于先前值时。 |
4 |
|
我们可以设置统计值,仅当低于以前的值时。 |
5 |
|
它获取统计值。 |
6 |
|
它获取所有统计数据 |
Scrapy 提供了不同类型的统计收集器,可以使用 STATS_CLASS
设置进行访问。
它是默认的 Stats
收集器,它维护用于抓取的每个蜘蛛的统计信息,数据将存储在内存中。
class scrapy.statscollectors.MemoryStatsCollector
这个统计收集器非常高效,什么也不做。 这可以使用 STATS_CLASS 设置进行设置,并可用于禁用统计信息收集以提高性能。
class scrapy.statscollectors.DummyStatsCollector