共计 1206 个字符,预计需要花费 4 分钟才能阅读完成。
自动写代码机器人,免费开通
今天就跟大家聊聊有关 Redis 中出现大量连接超时如何解决,可能很多人都不太了解,为了让大家更加了解,丸趣 TV 小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
排查思路查看异常分布
首先根据经验,我们看看自己的服务器的情况,看下异常到底出现在哪些机器,通过监控切换到单机维度,看看异常是否均匀分布,如果分布不均匀,只是少量的 host 特别高,基本可以定位到出现问题的机器。
诶,这就很舒服了,这一下子就找到了问题,只有几台机器异常非常高。
不过不能这样,我们继续说排查思路 ……
Redis 情况
再次按照经验,虽然负责 redis 的同学说 redis 贼稳定巴拉巴拉,但是我们本着怀疑的态度,不能太相信他们说的话,这点很重要,特别是工作中,同学们,不要别人说啥你就信啥,要本着柯南的精神,发生命案的时候每个人都是犯罪嫌疑人,当然你要排除自己,坚定不移的相信这肯定不是我的锅!
好了,我们看看 redis 集群是否有节点负载过高,比如以常规经验看来的 80% 可以作为一个临界值。
如果有一个或少量节点超过,则说明可能存在热 key 问题,如果大部分节点都超过,则说明存在 redis 整体压力大问题。
另外可以看看是否有慢请求的情况,如果有慢请求,并且时间发生问题的时间匹配,那么可能是存在大 key 的问题。
嗯 … …
redis 同学说的没错,redis 稳如老狗。
CPU
我们假设自己还是很无助,还是没发现问题在哪儿,别急,接着找找别人的原因,看看 CPU 咋样,可能运维偷偷滴给我们把机器配置给整差了。
我们看看 CPU 使用率多高,是不是超过 80% 了,还是根据经验,我们之前的服务一般高峰能达到 60% 就不错了。
再看看 CPU 是不是存在限流,或者存在密集的限流、长时间的限流。
如果存在这些现象,应该就是运维的锅,给我们机器资源不够啊。
GC 停顿
得嘞,运维这次没作死。
再看看 GC 咋样。
频繁的 GC、GC 耗时过长都会让线程无法及时读取 redis 响应。
这个数字怎么判断呢?
通常,我们可以这样计算,再次按照我们一塌糊涂的经验,每分钟 GC 总时长 /60s/ 每分钟 GC 个数,如果达到 ms 级了,对 redis 读写延迟的影响就会很明显。
为了稳一手,我们也要对比下和历史监控级别是否差不多一致。
好了,打扰了,我们继续。
网络
网络这块我们主要看 TCP 重传率,这个基本在大点的公司都有这块监控。
TCP 重传率 = 单位时间内 TCP 重传包数量 /TCP 发包总数
我们可以把 TCP 重传率视为网络质量和服务器稳定性的一个只要衡量指标。
还是根据我们的经验,这个 TCP 重传率越低越好,越低代表我们的网络越好,如果 TCP 重传率保持在 0.02%(以自己的实际情况为准)以上,或者突增,就可以怀疑是不是网络问题了。
看完上述内容,你们对 Redis 中出现大量连接超时如何解决有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注丸趣 TV 行业资讯频道,感谢大家的支持。
向 AI 问一下细节