参考答案
Elasticsearch 在部署时,对 Linux 的设置优化方法:
- 64 GB 内存的机器是非常理想的, 32 GB 和 16 GB 机器也很常见,但是,少于 8 GB 就会适得其反。
- 如果要在更快的 CPU 和更多的核心之间进行选择,选择更多的核心更好,多个内核提供的额外并发,远胜过稍微快一点点的时钟频率。
- 如果忽略成本,SSD 是一个很好的选择。它将远远超出任何旋转介质。 基于 SSD 的节点,查询和索引性能都有提升。
- 即使数据中心们近在咫尺,也要避免集群跨越多个数据中心。绝对要避免集群跨越大的地理距离。
- 请确保运行应用程序的 JVM 、和服务器的 JVM 是完全一样的。 在 Elasticsearch 的几个地方,使用 Java 的本地序列化。
- 通过设置 gateway.recover_after_nodes、gateway.expected_nodes、gateway.recover_after_time ,可以在集群重启的时候避免过多的分片交换,这可能会让数据恢复从数个小时缩短为几秒钟。
- Elasticsearch 默认被配置为使用单播发现,以防止节点无意中加入集群。只有在同一台机器上运行的节点才会自动组成集群。最好使用单播代替组播。
- 不要随意修改垃圾回收器(CMS)和各个线程池的大小。
- 把内存的(少于)一半给 Lucene(不要超过 32 GB),通过ES_HEAP_SIZE 环境变量设置。
- 内存交换到磁盘对服务器性能来说是致命的。如果内存交换到磁盘上,一个100 微秒的操作可能变成 10 毫秒。 再想想那么多 10 微秒的操作时延累加起来。 不难看出 swapping 对于性能是多么可怕。
- Lucene 使用了大量的文件。同时,Elasticsearch 在节点和 HTTP 客户端之间进行通信也使用了大量的套接字。 所有这一切都需要足够的文件描述符。你应该增加你的文件描述符,设置一个很大的值,例如 64,000。
补充:索引阶段性能提升方法
- 使用批量请求并调整其大小:每次批量数据 5–15 MB 大是个不错的起始点。
- 存储:使用 SSD。
- 段和合并:Elasticsearch 默认值是 20 MB/s,对机械磁盘应该是个不错的设置。如果你用的是 SSD,可以考虑提高到 100–200 MB/s。如果做批量导入,完全不在意搜索,可以彻底关掉合并限流。另外还可以增加 index.translog.flush_threshold_size 设置,从默认的 512 MB 到更大一些的值,例如 1 GB,这可以在一次清空触发的时候在事务日志里积累出更大的段。
- 如果搜索结果不需要近实时的准确度,考虑把每个索引的index.refresh_interval 改到 30s。
- 如果做大批量导入,考虑通过设置 index.number_of_replicas: 0 关闭副本。
以上,是 Elasticsearch 搜索面试题【Elasticsearch 在部署时,对 Linux 的设置有哪些优化方法?】的参考答案。
输出,是最好的学习方法。
欢迎在评论区留下你的问题、笔记或知识点补充~
—end—