共计 2561 个字符,预计需要花费 7 分钟才能阅读完成。
这篇文章主要讲解了“elasticsearch 的 ScanScroll 如何使用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着丸趣 TV 小编的思路慢慢深入,一起来研究和学习“elasticsearch 的 ScanScroll 如何使用”吧!
ScanScroll 的特点
优点
速度快
大数据量
缺点
不支持排序
不支持分页
不支持评分
不支持续查
使用场景
看起来,缺点要比优点多很多,不过它很有用。如果说 BULK 是为了快速入库存在的,那 SCAN 就是为了快速出库而诞生的。ES 的查询性能优越,但是分析能力弱。所以会有, 比如把 ES 的数据拉到 Hadoop 集群去分析计算的需求,当然这个已经有现成的插件了,不出所料也是用的 SCAN。如果 SCAN 遭遇 BULK,也就是 ES 到 ES 的话,它有另一个更熟悉的名字叫 复制表。
使用方法
def scanTest():
searchRes = es.search(index= users ,size=10,body={ query : { match_all : {}}},search_type= scan ,scroll= 10s )
while True:
scrollRes=es.scroll(scroll_id=searchRes[ _scroll_id],scroll= 10s ,ignore=[400, 404])
res_list = scrollRes[hits][hits]
if not len(res_list):
break;
for res in res_list:
print res[_source][userName]
原理流程
整个流程比较清晰,先 count 一个总数,下面每次 scroll,返回 size* 分片数的数据,直到遍历全部。SCAN 是支持查询偏好 preference 的,可以指定分片,所以有人说的 size* 主分片数,是不准确的,这个很容易验证。
第一阶段:Search
用 TotalHitCountCollector 统计下总数,并且确定(节点,查询上下文 ID),Base64 编码成 ScrollId 返回
第二阶段:SearchScroll
根据 ScrollId 去每个节点,找到查询上下文 ID 执行 XFilteredQuery,收集结果,合并返回
第一阶段除了返回总数,还有一个很神秘的 ScrollId,这个 ScrollId 长成这样,很像 Base64 编码过的。一定不是 ID 那么简单,了解一番,果不其然 ,主要有 3 个部分组成 type,context,attributes
type 分别是 queryThenFetch,queryAndFetch,scan, 我们这里讲的是 scan
attributes 只有一个元素,total_hits
context 是个分片的元组,有 2 个元素,分片 = [节点 ID, 查询上下文 ID]
ScrollId 是个很容易会暴露秘密的东西,我们会发现 ScrollId 依赖的节点 ID 和查询上下文 ID 都是变量,查询上下文 ID,每次请求都要递增的。所以每次请求的 ScrollId 都不一样,导致了如果在我们的 SCAN 过程意外终止,我们可能需要重新来过。
每次 SCAN,处理 Scroll 跳到下一页去,我们自己指定 form 是无效的。
//SearchService
private void processScroll(InternalScrollSearchRequest request, SearchContext context) {
// process scroll
context.from(context.from() + context.size());
context.scroll(request.scroll());
// ...
}
//ScanContext
public TopDocs execute(SearchContext context) throws IOException { ScanCollector collector = new ScanCollector(readerStates, context.from(), context.size(), context.trackScores());
Query query = new XFilteredQuery(context.query(), new ScanFilter(readerStates, collector));
try { context.searcher().search(query, collector);
} catch (ScanCollector.StopCollectingException e) {
// all is well
}
return collector.topDocs();}
自定义的 Filter,Collector,执行搜索,收集那一页的结果集
//ScanContext
public void collect(int doc) throws IOException { if (counter = from) { docs.add(new ScoreDoc(docBase + doc, trackScores ? scorer.score() : 0f));
}
readerState.count++;
counter++;
if (counter = to) {
throw StopCollectingException;
}
}
根据以往数据库的认识,count 操作总是很慢的,这让我很担心会延长整个查询的时间,后来我发现这种担心是多余的,对于全文检索 count 操作是很快速的。根据测试,17 亿数据 24 个分片,平均每个分片的 count 时间在 200ms 到 700ms 之间,最糟糕的情况下总数也能在 1 秒内返回,这对于整个查询时间而言是可以接受的。
感谢各位的阅读,以上就是“elasticsearch 的 ScanScroll 如何使用”的内容了,经过本文的学习后,相信大家对 elasticsearch 的 ScanScroll 如何使用这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是丸趣 TV,丸趣 TV 小编将为大家推送更多相关知识点的文章,欢迎关注!