用Redis快速实现BloomFilter!
发布时间:2019-04-16 10:04来源: 未知背景
最近工作上有个类似需求是: 现有约3亿条数据词典存在于一个csv文件A中,作为数据源。对于 用户输入的任意单词M,需要快速的在A中匹配M单词是否存在。(A文件约3G大小左右,总行数三亿)
拿到这个需求,你的第一想法怎么做呢?
正常思路可能是:
将csv文件A导入某关系型数据库。
sql查询按M匹配。
上面的方式有个明显的缺点是:慢!
3亿多行的数据,即便是建好索引进行检索,匹配到也得话不少时间(笔者没亲自试过,感兴趣的朋友可以自行测试测试,理论上快不起来的)。
目前能 在时间复杂度和空间复杂度上达到最佳的方案,恐怕就是Bloom Filter了, 维基地址:Bloom Filter此处给不太了解Bloom Filter的读者看,熟悉的朋友直接看下一节。本文场景Bloom Filter 使用思路解释:假设申请了一段bit位大数组(即数组中的元素只能是一个bit位,1或0,默认元素值都为0)将csv文件A中的每个单词,经过多个hash函数进行hash运算之后得到在大数组中对应的多个下标位置将步骤2中得到的多个下标位置的bit位都置为1.对于用户输入的任意单词M,按照2的步骤得到多个下标位置,其对应大数组中的值全部为1则存在,否则不存在。方案选型
实现Bloom Filter的方法很多,有各种语言版本的,这里为了真切感受一下算法的魅力,笔者这里决定用java 代码徒手撸了!
另一方面,考虑到分布式应用的需要,显然在单机内存上构建Bloom Filter存储是不太合适的。 这里选择redis。
redis有以下为操作,可以用于实现bloomfilter:
redis> SETBIT bit 10086 1
(integer) 0
redis> GETBIT bit 10086
(integer) 1
redis> GETBIT bit 100 # bit 默认被初始化为 0
(integer) 0
实现细节
实现bloom filter的关键是hash函数,一般为了降低误报率、减少hash碰撞的影响,会选择多个hash函数。
那么,怎么写一个hash函数呢?
不要方,我们要的hash是 input: String --> output: int , jdk里面的String类不是恰好也有一个hashCode 方法吗? 翻出来看一看!
/**
* Returns a hash code for this string. The hash code for a
* {@code String} object is computed as
*
* s[0]*31^(n-1) + s[1]*31^(n-2) + ... + s[n-1]
*
* using {@code int} arithmetic, where {@code s[i]} is the
*
i
th character of the string, {@code n} is the length of
* the string, and {@code ^} indicates exponentiation.
* (The hash value of the empty string is zero.)
*
* @return a hash code value for this object.
*/
public int hashCode() {
int h = hash;
if (h == 0 && value.length > 0) {
char val[] = value;
for (int i = 0; i < value.length; i++) {
h = 31 * h + val[i];
}
hash = h;
}
return h;
}
看到这一行h = 31 * h + val[i];,貌似原理其实也很简单,每个字符对应的ascii码,经过一个公式计算依次加起来。这里有个系数31, 稍微变一下, 不就可以有多个hash函数了吗。
以下是稍加修改后的hash函数:
//总的bitmap大小 64M
private static final int cap = 1 << 29;
/*
* 不同哈希函数的种子,一般取质数
* seeds数组共有8个值,则代表采用8种不同的哈希函数
*/
private int[] seeds = new int[]{3, 5, 7, 11, 13, 31, 37, 61};
private int hash(String value, int seed) {
int result = 0;
int length = value.length();
for (int i = 0; i < length; i++) {
result = seed * result + value.charAt(i);
}
return (cap - 1) & result;
}
剩下的事情便很简单了,对每个词典A中的单词,依次调seeds 中对应的hash函数(这里一共是8个),用redis的setbit操作,将下标值置为1.
redis代码 (这里用pipeline 包装了下。)
@Service
public class RedisService {
@Autowired
private StringRedisTemplate template;
public void multiSetBit(String name, boolean value, long... offsets) {
template.executePipelined((RedisCallback
) connection -> {
for (long offset : offsets) {
connection.setBit(name.getBytes(), offset, value);
}
return null;
});
}
public List
multiGetBit(String name, long... offsets) {
List
results = template.executePipelined((RedisCallback
) connection -> {
for (long offset : offsets) {
connection.getBit(name.getBytes(), offset);
}
return null;
});
List
list = new ArrayList
{
list.add((Boolean) obj);
});
return list;
}
}
最后,代码串起来大概长这个样子:
FileInputStream inputStream = new FileInputStream("/XXXX.csv");
BufferedReader bufferedReader = new BufferedReader(new InputStreamReader(inputStream));
HashSet
totalSet=new HashSet<>();
String word=null;
while((word = bufferedReader.readLine()) != null){
for (int seed : seeds) {
int hash = hash(word, seed);
totalSet.add((long) hash);
}
long[] offsets = new long[totalSet.size()];
int i=0;
for(Long l:totalSet){
offsets[i++]=l;
}
redisService.multiSetBit("BLOOM_FILTER_WORDS_DICTIONARY", true, offsets);
}
查的时候也类似:
String word = "XXXX"; //实际输入
long[] offsets = new long[seeds.length];
for (int i = 0; i < seeds.length; i++) {
int hash = hash(mobile, seeds[i]);
offsets[i] = hash;
}
List
results = redisService.multiGetBit("BLOOM_FILTER_WORDS_DICTIONARY", offsets);
//判断是否都为true (则存在)
boolean isExisted=true;
for(Boolean result:results){
if(!result){
isExisted=false;
break;
}
}注意事项setbit的offset是用大小限制的,在0到 232(最大使用512M内存)之间,即0~4294967296之前,超过这个数会自动将offset转化为0,因此使用的时候一定要注意。