向爬虫而生---Redis 基石篇6 <拓展HyperLogLog>

2024-03-01 1366阅读

温馨提示:这篇文章已超过398天没有更新,请注意相关的内容是否还可用!

前言:

继续之前的

向爬虫而生---Redis 基石篇6 <拓展HyperLogLog>
(图片来源网络,侵删)

向爬虫而生---Redis 基石篇5 <拓展Zset>-CSDN博客

一些比较基础的redis类型在初中级阶段用着没有毛病,但是到了大数据时代,慢慢一些更高级的场景,就需要把这几个类型搬出来了!

正文:

概念:

当我们需要对一个大型数据集进行去重计数时,传统的集合或者基数计数方法可能会面临内存消耗较大的问题。这时,Redis的HyperLogLog(HLL)数据结构就可以派上用场了。

HyperLogLog是一种基数估计算法,它可以通过占用固定的内存空间来估计一个集合中不重复元素的数量,而无需存储实际的元素。它的特点是具有较小的内存占用和高度的近似精度。

下面是一些关键概念和特性:

基础原理:

HyperLogLog使用随机哈希函数将输入元素映射到一个固定长度的二进制字符串。这些二进制字符串被组织为一个位图,其中每个位被用于存储零或一。通过统计位图中置为一的位的数量,就可以估计不重复元素的数量。

精度和误差:

HyperLogLog可以提供高度的近似精度,一般误差在0.81%以内(官方给的数据,其实可以忽略)。在正常情况下,随着不重复元素数量增加,误差会保持在相对稳定的范围内。

容量和内存占用:

HyperLogLog的固定内存占用仅取决于预先设定的精度和要统计的元素数量。这意味着,无论原始集合大小如何,都能以相对较小的内存占用进行近似计数---大约12KB。

数据合并:

HyperLogLog提供了数据合并的功能,即多个HLL数据结构可以合并为一个,而不会对计数结果产生明显的影响。

Redis命令:

在Redis中,可以使用以下命令进行HyperLogLog操作:PFADD、PFCOUNT、PFMERGE等。通过这些命令,可以添加元素、获取近似计数以及合并HLL数据结构。

Redis中提供了以下命令用于操作HyperLogLog数据结构:

1.PFADD key element [element ...]:

将一个或多个元素添加到给定的HyperLogLog数据结构中。

2.PFCOUNT key [key ...]:

估计给定HyperLogLog数据结构中的不重复元素数量。

3.PFMERGE destkey sourcekey [sourcekey ...]:

将多个HyperLogLog数据结构合并到一个目标HyperLogLog中。

4.PFDEBUG subcommand [arguments ...]:

调试命令,用于在Redis服务器端打开或关闭HyperLogLog的内部低级别调试。

(这些命令可以通过执行REDIS-cli命令行工具或者在编程语言中使用Redis客户端库来进行操作。)

PS:HyperLogLog命令的返回值通常是一个近似的基数计数结果,而不是实际元素的列表或详细信息。这是因为HyperLogLog是一种基数估计算法,它通过占用固定的内存空间来估计不重复元素的数量,而不存储实际的元素。

例子说明:

当我们需要统计网站的独立访客数量时,HyperLogLog可以提供一种高效的方法。

假设有一个在线论坛,我们想要统计每天访问论坛的独立用户数量(就是他独立的识别地址)。

首先,我们可以使用HyperLogLog数据结构来进行统计。我们可以在Redis中创建一个新的HyperLogLog结构,并使用PFADD命令将每个访问者的唯一标识添加到HyperLogLog中。

例如,当一个用户访问论坛时,我们会执行以下命令:

PFADD daily_visitors 1001

这将把用户的唯一标识(这里使用1001作为示例---实际一般会是ip地址或者别的例如个人识别信息之类)添加到名为daily_visitors的HyperLogLog中。

在每次用户访问时,我们都可以执行相同的命令来将唯一标识添加到HyperLogLog中。

接下来,我们可以使用PFCOUNT命令来获取近似的独立访客数量:

PFCOUNT daily_visitors

这将返回一个大致的独立访客数量,而无需存储每个访问者的唯一标识。

另外,如果我们需要合并不同时间段的独立访客数量,可以使用PFMERGE命令。例如,假设我们想要合并今天和昨天的独立访客数量:

PFMERGE combined_visitors daily_visitors_today daily_visitors_yesterday

这会将今天和昨天的独立访客数量合并到名为combined_visitors的HyperLogLog中。

应用到scrapy:

当使用HyperLogLog进行URL去重时,可以使用URL的哈希值作为唯一标识。

import hashlib
import redis
import scrapy
from scrapy.exceptions import CloseSpider
# 创建Redis连接
redis_client = redis.Redis()
class MySpider(scrapy.Spider):
    name = 'my_spider'
    def start_requests(self):
        urls = [
            'http://www.example.com/page1',
            'http://www.example.com/page2',
            'http://www.example.com/page1',  # 重复的URL
        ]
        for url in urls:
            url_hash = self.get_url_hash(url)
            if redis_client.sadd('url_hashes', url_hash) == 1:
                yield scrapy.Request(url, callback=self.parse)
            else:
                self.logger.info('URL already crawled: %s', url)
    def parse(self, response):
        # 处理返回的网页数据
        # ...
    def get_url_hash(self, url):
        # 计算URL的哈希值作为唯一标识
        url_hash = hashlib.sha1(url.encode()).hexdigest()
        return url_hash

在这个示例中,我们创建了一个名为MySpider的Spider类。在start_requests方法中,我们定义了一些示例URL,并使用get_url_hash方法计算URL的哈希值作为唯一标识。然后,我们使用Redis的sadd命令将唯一标识添加到名为url_hashes的HyperLogLog中。如果sadd命令返回1(表示添加成功),则说明这是一个新的URL,我们使用Scrapy的Request对象加入爬取队列;否则,我们将其标记为已经爬取过的重复URL。

在parse方法中,我们处理返回的网页数据。

需要确保已经正确安装和配置了Redis,并确保Redis服务器正在运行。你可以根据实际情况修改Redis的连接参数,例如设置密码、指定IP地址等。

---------->案例,请勿当真,只是演示!!!

总结:

通过HyperLogLog,我们可以高效地估计一个大型数据集中不重复元素的数量,比如统计每天访问论坛的独立用户数量。它通过占用固定的内存空间,提供高度的近似精度,使得计数操作更加高效和可扩展。

VPS购买请点击我

免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们,邮箱:ciyunidc@ciyunshuju.com。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

目录[+]