前言
之前有篇文章提到了实现增量爬虫可以利用redis数据库进行url去重,今天博主就给大家分享一下python如何利用redis进行去重吧。在试验中,我们用到Redis数据库和hash算法,我们先了解一下Redis和hashlib。
Redis简介
Redis 是完全开源免费的,遵守BSD协议,是一个高性能的key-value数据库。
Redis 优势
- 读写速度极快,Redis能读的速度是110000次/s,写的速度是81000次/s 。
- 支持多种数据结构:string(字符串);list(列表);hash(哈希),set(集合);zset(有序集合)。
- Redis可以将内存中的数据利用快照和日志的形式保存到硬盘上,这样发生类似断电或者机器故障的时候,内存中的数据不会丢失。
- 丰富的特性 – Redis还支持 publish/subscribe, 通知, key 过期等等特性。
hashlib简介
hash是一种算法,不同的hash算法只是复杂度不一样, hashlib中提供了SHA1, SHA224, SHA256, SHA384, SHA512 ,MD5 算法,这些算法接受传入的内容,经过运算得到一串hash值
hashlib特点
- 传入的内容一样,得到的hash值必然一样。
- 不能由hash值返解成内容。
- 只要使用的hash算法不变,无论校验的内容有多大,得到的hash值长度是固定的,可以节省内存。
以上就是对redis和hashlib的说明了,下面我们进行一些简单的试验,让大家能有更加深刻的了解。
程序分模块讲解
导入模块
import redis
import hashlib
创建Redis类
连接Redis数据库需要提供主机号和端口号,不需要密码,同时需要指定连接的数据库号(redis中默认存在0-15号数据库),这里我们使用集合存储数据
host处需要大家提供主机号。
class Redis():
def __init__(self):
self.con = redis.Redis(
host='', #ip地址
port=6379, #端口号,默认为6379
db=15,
decode_responses=True #设置为True存的数据格式就是str类型
)
def add(self,key,data):
if self.exit(key,data):
print("该数据已存在!")
else:
self.con.sadd(key,data) #添加
print("添加成功")
def query(self,key):
return self.con.smembers(key) #拿出key对应所有值
def delete(self,key):
self.con.delete(key) #删除key键
def exit(self,key,data):
return self.con.sismember(key, data) # 判断key里是否有data,有则返回true
创建hashlib类
class Hashencode():
def __init__(self):
self.encode_machine = hashlib.md5() # 创建一个md5对象
def encode(self,url):
self.encode_machine.update(url.encode()) #更新
url_encode = self.encode_machine.hexdigest() #拿到编码后的十六进制数据
return url_encode
有了以上两个类的基础,我们进行试验。
去重试验
实例化Redis和Hashlib对象
en = Hashencode()
re = Redis()
我们要试验url的去重
url = "https://www.baidu.com/s?wd=keras%E5%AE%9E%E6%88%98&pn=10&oq=keras" \
"%E5%AE%9E%E6%88%98&ie=utf-8&rsv_pq=93a257f40023c669&rsv_" \
"t=bad6XI9Ya3l%2FJJCLby9vpq3gjNg%2" \
"FKPN9VTtXPhQTKdc1wdL%2FgQ4xNHxY5YU&rsv_page=1"
第一次存取
encode = en.encode(url)
re.add("urls",encode)
for i in re.query("urls"):
print(i)
"""
结果:
添加成功!
5d53585df507174ae1f1c3b39d272f52
"""
第二次存取
re.add("urls",encode)
for i in re.query("urls"):
print(i)
"""
结果:
该数据已存在!
5d53585df507174ae1f1c3b39d272f52
"""
我们可以看到确实实现了去重效果。
以上就是博主今天和大家分享的内容了,希望大家能够将Redis和Hashlib作为一大利器使用,同时希望这篇文章能给大家带来一定的收获,祝大家学习进步!