Elasticsearch 索引設計實戰指南

2021-01-09 網易

  題記

  隨著 Elastic 的上市,ELK Stack 不僅在 BAT 的大公司得到長足的發展,而且在各個中小公司都得到非常廣泛的應用,甚至連「婚慶網站」都開始使用 Elasticsearch 了。隨之而來的是 Elasticsearch 相關部署、框架、性能優化的文章早已鋪天蓋地。

  初學者甚至會進入幻覺——「一鍵部署、導入數據、檢索&聚合、動態擴展, So Easy,媽媽再也不用擔心我的 Elastic 學習」!

  但,實際上呢?僅就 Elasticsearch 索引設計,請回答如下幾個問題:

  

1. 每天幾百 GB 增量實時數據的TB級甚至PB級別的大索引如何設計?2. 分片數和副本數大小如何設計,才能提升 ES 集群的性能?3. ES 的 Mapping 該如何設計,才能保證檢索的高效?4. 檢索類型 term/match/matchphrase/querystring /match_phrase _prefix /fuzzy 那麼多,設計階段如何選型呢?5. 分詞該如何設計,才能滿足複雜業務場景需求?6. 傳統資料庫中的多表關聯在 ES 中如何設計? ......

  這麼看來,沒有那麼 Easy,坑還是得一步步的踩出來的。 正如攜程架構師 WOOD 大叔所說「做搜索容易,做好搜索相當難!」,VIVO 搜尋引擎架構師所說「 熟練使用 ES 離做好搜索還差很遠!」。

  本文主結合作者近千萬級開發實戰經驗,和大家一起深入探討一下Elasticsearch 索引設計......

  索引設計的重要性

  在美團寫給工程師的十條精進原則中強調了「設計優先」。 無數事實證明,忽略了前期設計,往往會帶來很大的延期風險。並且未經評估的不當的設計會帶來巨大的維護成本,後期不得不騰出時間,專門進行優化和重構。

  而 Elasticsearch 日漸成為大家非結構資料庫的首選方案,項目前期良好的設計和評審是必須的,能給整個項目帶來收益。

  索引層面的設計在 Elasticsearch 相關產品、項目的設計階段的作用舉重若輕。

  

好的索引設計在整個集群規劃中佔據舉足輕重的作用,索引的設計直接影響集群設計的好壞和複雜度。好的索引設計應該是充分結合業務場景的時間維度和空間維度,結合業務場景充分考量增、刪、改、查等全維度設計的。好的索引設計是完全基於「設計先行,編碼在後」的原則,前期會花很長時間,為的是後期工作更加順暢,避免不必要的返工。

  PB 級別的大索引如何設計?

  單純的普通數據索引,如果不考慮增量數據,基本上普通索引就能夠滿足性能要求。

  我們通常的操作就是:

  

步驟 1:創建索引;步驟 2:導入或者寫入數據;步驟 3:提供查詢請求訪問或者查詢服務。

  1.1 大索引的缺陷

  如果每天億萬+的實時增量數據呢,基於以下幾點原因,單個索引是無法滿足要求的。在 360 技術訪談中也提到了大索引的設計的困惑。

  1.1.1 存儲大小限制維度

  單個分片(Shard)實際是 Lucene 的索引,單分片能存儲的最大文檔數是:2,147,483,519 (= Integer.MAX_VALUE - 128)。 如下命令能查看全部索引的分隔分片的文檔大小:

  GET _cat/shards app_index 2 p STARTED 9443 2.8mb 127.0.0.1 Hk9wFwU app_index 2 r UNASSIGNED app_index 3 p STARTED 9462 2.7mb 127.0.0.1 Hk9wFwU app_index 3 r UNASSIGNED app_index 4 p STARTED 9520 3.5mb 127.0.0.1 Hk9wFwU app_index 4 r UNASSIGNED app_index 1 p STARTED 9453 2.4mb 127.0.0.1 Hk9wFwU app_index 1 r UNASSIGNED app_index 0 p STARTED 9365 2.3mb 127.0.0.1 Hk9wFwU app_index 0 r UNASSIGNED

  1.1.2 性能維度

  當然一個索引很大的話,數據寫入和查詢性能都會變差。

  而高效檢索體現在:基於日期的檢索可以直接檢索對應日期的索引,無形中縮減了很大的數據規模。

  比如檢索:「2019-02-01」號的數據,之前的檢索會是在一個月甚至更大體量的索引中進行。

  現在直接檢索"index_2019-02-01"的索引,效率提升好幾倍。

  1.1.3 風險維度

  一旦一個大索引出現故障,相關的數據都會受到影響。 而分成滾動索引的話,相當於做了物理隔離。

  1.2 PB 級索引設計實現

  綜上,結合實踐經驗,大索引設計建議:使用模板+Rollover+Curator動態創建索引。 動態索引使用效果如下:

  index_2019-01-01-000001 index_2019-01-02-000002 index_2019-01-03-000003 index_2019-01-04-000004 index_2019-01-05-000005

  1.2.1 使用模板統一配置索引

  目的:統一管理索引,相關索引欄位完全一致。

  1.2.2 使用 Rollver 增量管理索引

  目的:按照日期、文檔數、文檔存儲大小三個維度進行更新索引。 使用舉例:

  POST /logs_write/_rollover { "conditions": { "max_age": "7d", "max_docs": 1000, "max_size": "5gb" } }

  1.2.3 索引增量更新原理

  

  一圖勝千言。

  索引更新的時機是:當原始索引滿足設置條件的三個中的一個的時候,就會更新為新的索引。 為保證業務的全索引檢索,一般採用別名機制。

  在索引模板設計階段,模板定義一個全局別名:用途是全局檢索,如圖所示的別名:indexall。 每次更新到新的索引後,新索引指向一個用於實時新數據寫入的別名,如圖所示的別名:indexlatest。 同時將舊索引的別名 index_latest 移除。

  別名刪除和新增操作舉例:

   POST /_aliases { "actions" : [ { "remove" : { "index" : "index_2019-01-01-000001", "alias" : "index_latest" } }, { "add" : { "index" : "index_2019-01-02-000002", "alias" : "index_latest" } } ] }

  經過如上步驟,即可完成索引的更新操作。

  1.2.4 使用 curator 高效清理歷史數據

  目的:按照日期定期刪除、歸檔歷史數據。

  一個大索引的數據刪除方式只能使用 delete_by_query,由於 ES 中使用更新版本機制。刪除索引後,由於沒有物理刪除,磁碟存儲信息會不減反增。有同學就反饋 500GB+ 的索引 delete_by_query 導致負載增高的情況。

  而按照日期劃分索引後,不需要的歷史數據可以做如下的處理。

  

刪除。對應 delete 索引操作。壓縮。對應 shrink 操作。段合併。對應 force_merge 操作。

  而這一切,可以藉助:curator 工具通過簡單的配置文件結合定義任務 crontab 一鍵實現。 舉例,一鍵刪除 30 天前的歷史數據:

   [root@localhost .curator]# cat action.yml actions: 1: action: delete_indices description: >- Delete indices older than 30 days (based on index name), for logstash- prefixed indices. Ignore the error if the filter does not result in an actionable list of indices (ignore_empty_list) and exit cleanly. options: ignore_empty_list: True disable_action: False filters: - filtertype: pattern kind: prefix value: logs_ - filtertype: age source: name direction: older timestring: '%Y.%m.%d' unit: days unit_count: 30

  分片數和副本數如何設計?

  2.1 分片/副本認知

  1、分片:分片本身都是一個功能齊全且獨立的「索引」,可以託管在集群中的任何節點上。

  數據切分分片的主要目的:

  

水平分割/縮放內容量 。跨分片(可能在多個節點上)分布和並行化操作,提高性能/吞吐量。

  注意:分片一旦創建,不可以修改大小。

  2、副本:它在分片/節點出現故障時提供高可用性。

  副本的好處:因為可以在所有副本上並行執行搜索——因此擴展了搜索量/吞吐量。

  注意:副本分片與主分片存儲在集群中不同的節點。副本的大小可以通過:number_of_replicas動態修改。

  2.2 分片和副本實戰中設計

  最常見問題答疑

  2.2.1 問題 1:索引設置多少分片?

  Shard 大小官方推薦值為 20-40GB, 具體原理呢?Elasticsearch 員工 Medcl 曾經討論如下:

  

  1. Lucene 底層沒有這個大小的限制,20-40GB 的這個區間範圍本身就比較大,經驗值有時候就是拍腦袋,不一定都好使。

  

  2. Elasticsearch 對數據的隔離和遷移是以分片為單位進行的,分片太大,會加大遷移成本。

  

  3. 一個分片就是一個 Lucene 的庫,一個 Lucene 目錄裡面包含很多 Segment,每個 Segment 有文檔數的上限,Segment 內部的文檔 ID 目前使用的是 Java 的整型,也就是 2 的 31 次方,所以能夠表示的總的文檔數為Integer.MAXVALUE - 128 = 2^31 - 128 = 2147483647 - 1 = 2,147,483,519,也就是21.4億條。同樣,如果你不 forcemerge 成一個 Segment,單個 shard 的文檔數能超過這個數。

  

  4. 單個 Lucene 越大,索引會越大,查詢的操作成本自然要越高,IO 壓力越大,自然會影響查詢體驗。

  

  5. 具體一個分片多少數據合適,還是需要結合實際的業務數據和實際的查詢來進行測試以進行評估。

  

  綜合實戰+網上各種經驗分享,梳理如下:

  

  第一步:預估一下數據量的規模。 一共要存儲多久的數據,每天新增多少數據?兩者的乘積就是總數據量。

  

  第二步:預估分多少個索引存儲。 索引的劃分可以根據業務需要。

  

  第三步:考慮和衡量可擴展性,預估需要搭建幾臺機器的集群。 存儲主要看磁碟空間,假設每臺機器2TB,可用:2TB0.85(磁碟實際利用率)0.85(ES 警戒水位線)。

  

  第四步:單分片的大小建議最大設置為 30GB。 此處如果是增量索引,可以結合大索引的設計部分的實現一起規劃。

  

  前三步能得出一個索引的大小。 分片數考慮維度:

  

1)分片數 = 索引大小/分片大小經驗值 30GB 。2)分片數建議和節點數一致。

  設計的時候1)、2)兩者權衡考慮+rollover 動態更新索引結合。

  每個 shard 大小是按照經驗值 30G 到 50G,因為在這個範圍內查詢和寫入性能較好。

  經驗值的探推薦閱讀:

  https://blog.csdn.net/laoyang360/article/details/78080602

  2.2.2 問題 2:索引設置多少副本?

  結合集群的規模,對於集群數據節點 >=2 的場景:建議副本至少設置為 1。

  之前有同學出現過:副本設置為 0,長久以後會出現——數據寫入向指定機器傾斜的情況。 注意:

  

單節點的機器設置了副本也不會生效的。副本數的設計結合數據的安全需要。對於數據安全性要求非常高的業務場景,建議做好:增強備份(結合 ES 官方備份方案)。

  Mapping 如何設計?

  3.1 Mapping 認知

  Mapping 是定義文檔及其包含的欄位的存儲和索引方式的過程。 例如,使用映射來定義:

  

1. 應將哪些字符串欄位定義為全文檢索欄位;2. 哪些欄位包含數字,日期或地理位置;3. 定義日期值的格式(時間戳還是日期類型等);4. 用於控制動態添加欄位的映射的自定義規則。

  3.2 設計 Mapping 的注意事項

  

  

   PUT new_index { "mappings": { "_doc": { "properties": { "status_code": { "type": "keyword" } } } } }

  

1. ES 不支持直接刪除欄位2. ES 不支持直接修改欄位3. ES 不支持直接修改欄位類型

  如果非要做靈活設計,ES 有其他方案可以替換,藉助reindex。 但是數據量大會有性能問題,建議設計階段綜合權衡考慮。

  3.3 Mapping 欄位的設置流程

  索引分為靜態 Mapping(自定義欄位)+動態 Mapping(ES 自動根據導入數據適配)。

  實戰業務場景建議:選用靜態 Mapping,根據業務類型自己定義欄位類型。

  好處:

  

可控;節省存儲空間(默認 string 是 text+keyword,實際業務不一定需要)。

  設置欄位的時候,務必過一下如下圖示的流程。 根據實際業務需要,主要關注點:

  

數據類型選型;是否需要檢索;是否需要排序+聚合分析;

  是否需要另行存儲。

  

  Mapping 核心參數的含義,梳理如下:

  

  

  3.3 Mapping 建議結合模板定義

  索引 Templates——索引模板允許您定義在創建新索引時自動應用的模板。 模板包括settings和Mappings以及控制是否應將模板應用於新索引。

  注意:模板僅在索引創建時應用。 更改模板不會對現有索引產生影響。

  第1部分也有說明,針對大索引,使用模板是必須的。 核心需要設置的setting(僅列舉了實戰中最常用、可以動態修改的)如下:

  

1. index.numberofreplicas 每個主分片具有的副本數。 默認為 1(7.X 版本,低於 7.X 為 5)。2. index.maxresultwindow 深度分頁 rom + size 的最大值—— 默認為 10000。3. index.refresh_interval

  默認 1s:代表最快 1s 搜索可見; 寫入時候建議設置為 -1,提高寫入性能; 實戰業務如果對實時性要求不高,建議設置為 30s 或者更高。

  3.4 包含 Mapping 的 template 設計萬能模板

  以下模板已經在 6.5.4 驗證 ok,可以直接拷貝修改後實戰項目中使用。

   PUT _template/test_template { "index_patterns": [ "test_index_*", "test_*" ], "settings": { "number_of_shards": 5, "number_of_replicas": 1, "max_result_window": 100000, "refresh_interval": "30s" }, "mappings": { "_doc": { "properties": { "id": { "type": "long" }, "title": { "type": "keyword" }, "content": { "analyzer": "ik_max_word", "type": "text", "fields": { "keyword": { "ignore_above": 256, "type": "keyword" } } }, "available": { "type": "boolean" }, "review": { "type": "nested", "properties": { "nickname": { "type": "text" }, "text": { "type": "text" }, "stars": { "type": "integer" } } }, "publish_time": { "type": "date", "format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis" }, "expected_attendees": { "type": "integer_range" }, "ip_addr": { "type": "ip" }, "suggest": { "type": "completion" } } } } }

  分詞的選型

  主要以 ik 來說明,最新版本的ik支持兩種類型。 ik_maxword 細粒度匹配,適用切分非常細的場景。 iksmart 粗粒度匹配,適用切分粗的場景。

  4.1 坑 1:分詞選型

  實際業務中:建議適用ik_max_word分詞 + match_phrase短語檢索。 原因:ik_smart有覆蓋不全的情況,數據量大了以後,即便 reindex 能滿足要求,但面對極大的索引的情況,reindex 的耗時我們承擔不起。建議ik_max_word一步到位。

  4.2 坑 2:ik 要裝集群的所有機器嗎?

  建議:安裝在集群的所有節點上。

  4.3 坑 3:ik 匹配不到怎麼辦?

  方案1:擴充 ik 開源自帶的詞庫+動態更新詞庫; 原生的詞庫分詞數量級很小,基礎詞庫儘量更大更全,網上搜索一下「搜狗詞庫「。

  動態更新詞庫:可以結合 mysql+ik 自帶的更新詞庫的方式動態更新詞庫。

  更新詞庫僅對新創建的索引生效,部分老數據索引建議使用 reindex 升級處理。

  方案2:採用字詞混合索引的方式,避免「明明存在,但是檢索不到的」場景。

  檢索類型如何選型呢?

  前提:5.X 版本之後,string 類型不再存在,取代的是text和keyword類型。

  

  1. text 類型作用:分詞,將大段的文字根據分詞器切分成獨立的詞或者詞組,以便全文檢索。 適用於:email 內容、某產品的描述等需要分詞全文檢索的欄位; 不適用:排序或聚合(Significant Terms 聚合例外)

  

  2. keyword 類型:無需分詞、整段完整精確匹配。 適用於:email 地址、住址、狀態碼、分類 tags。

  

  以一個實戰例子說明:

   PUT zz_test { "mappings": { "doc": { "properties": { "title": { "type": "text", "analyzer":"ik_max_word", "fields": { "keyword": { "type": "keyword", "ignore_above": 256 } } } } } } }GET zz_test/_mapping PUT zz_test/doc/1 { "title":"錘子加溼器官方致歉,難產後臨時推遲一個月發貨遭diss耍流氓"} POST zz_test/_analyze { "text": "錘子加溼器官方致歉,難產後臨時推遲一個月發貨遭diss耍流氓", "analyzer": "ik_max_word"}

  ik_max_word的分詞結果如下:

  錘子、錘、子、加溼器、溼、器官、官方、方、致歉、致、歉、難產、產後、後、臨時、臨、時、推遲、遲、一個、 一個、 一、個月、 個、 月、 發貨、發、貨、遭、diss、耍流氓、耍、流氓、氓。

  5.1 term 精確匹配

  核心功能:不受到分詞器的影響,屬於完整的精確匹配。 應用場景:精確、精準匹配。 適用類型:keyword。 舉例: term 最適合匹配的類型是 keyword,如下所示的精確完整匹配:

   POST zz_test/_search { "query": { "term": { "title.keyword": "錘子加溼器官方致歉,難產後臨時推遲一個月發貨遭diss耍流氓" } } }

  注意:如下是匹配不到結果的。

  原因:對於 title 中的錘子加溼器,term 不會做分詞拆分匹配的。且 ik_max_word 分詞也是沒有「錘子加溼器」這組關鍵詞的。

  5.2 prefix 前綴匹配

  核心功能:前綴匹配。 應用場景:前綴自動補全的業務場景。

  

  適用類型:keyword。

  如下能匹配到文檔 id 為 1 的文章。

  5.3 wildcard 模糊匹配

  核心功能: 匹配具有匹配通配符表達式 keyword 類型的文檔。 支持的通配符:

  

1. *,它匹配任何字符序列(包括空字符序列);2. ?,它匹配任何單個字符。

  應用場景:請注意,選型務必要慎重! 此查詢可能很慢多組關鍵次的情況下可能會導致宕機,因為它需要遍歷多個術語。 為了防止非常慢的通配符查詢,通配符不能以任何一個通配符*或?開頭。

  如下匹配,類似 MySQL 中的通配符匹配,能匹配所有包含加溼器的文章。

  5.4 match 分詞匹配

  核心功能:全文檢索,分詞詞項匹配。 應用場景:實際業務中較少使用,原因:匹配範圍太寬泛,不夠準確。 適用類型:text。 如下示例,title 包含"錘子"和「加溼器」的都會被檢索到。

  5.5 match_phrase 短語匹配

  核心功能:

  

1. match_phrase 查詢首先將查詢字符串解析成一個詞項列表,然後對這些詞項進行搜索;2. 只保留那些包含 全部 搜索詞項,且 位置"position" 與搜索詞項相同的文檔。

  應用場景:業務開發中 90%+ 的全文檢索都會使用 match_phrase 或者 query_string 類型,而不是 match。

  注意:

   POST zz_test/_analyze { "text": "錘子加溼器", "analyzer": "ik_max_word" }

  分詞結果:

  錘子, 錘,子, 加溼器, 溼,器。 而:id為1的文檔的分詞結果:錘子, 錘, 子, 加溼器, 溼, 器官。

  所以,如下的檢索是匹配不到結果的。

  如果想匹配到,怎麼辦呢? 這裡可以字詞組合索引的形式。

  推薦閱讀: https://blog.csdn.net/laoyang360/article/details/85219215

  5.6 multi_match 多組匹配

  核心功能:match query 針對多欄位的升級版本。。 應用場景:多欄位檢索。 舉例:

  5.7 query_string 類型

  核心功能:支持與或非表達式+其他N多配置參數。 應用場景:業務系統需要支持自定義表達式檢索。

  5.8 bool 組合匹配

  核心功能:多條件組合綜合查詢。 應用場景:支持多條件組合查詢的場景。 適用類型:text 或者 keyword。 一個 bool 過濾器由三部分組成:

   { "bool" : { "must" : [], "should" : [], "must_not" : [], "filter": [] } }

  

must ——所有的語句都 必須(must) 匹配,與 AND 等價。must_not ——所有的語句都 不能(must not) 匹配,與 NOT 等價。should ——至少有一個語句要匹配,與 OR 等價。filter——必須匹配,運行在非評分&過濾模式。

  小結:

  

  多表關聯如何設計?

  6.1 為什麼會有多表關聯

  多表關聯是被問的最多的問題之一。幾乎每周都會被問到。 主要原因:常規基於關係型資料庫開發,多多少少都會遇到關聯查詢。而關係型資料庫設計的思維很容易帶到 ES 的設計中。

  6.2 多表關聯如何實現

  方案一:多表關聯視圖,視圖同步 ES

  MySQL 寬表導入 ES,使用 ES 查詢+檢索。 適用場景:基礎業務都在 MySQL,存在幾十張甚至幾百張表,準備同步到 ES,使用 ES 做全文檢索。

  將數據整合成一個寬表後寫到 ES,寬表的實現可以藉助關係型資料庫的視圖實現。寬表處理在處理一對多、多對多關係時,會有欄位冗餘問題,如果藉助:logstash_input_jdbc,關係型資料庫如 MySQL 中的每一個欄位都會自動幫你轉成 ES 中對應索引、對應 type 下的對應 document 下的某個相同欄位下的數據。

  

  1. 步驟 1:提前關聯好數據,將關聯的表建立好視圖,一個索引對應你的一個視圖,並確認視圖中數據的正確性。

  

  2. 步驟 2:ES 中針對每個視圖定義好索引名稱及 Mapping。

  

  3. 步驟 3:以視圖為單位通過 logstash_input_jdbc 同步到 ES 中。

  

  方案二:1 對 1 同步 ES

  MySQL+ES 結合,各取所長。 適用場景:關係型資料庫全量同步到 ES 存儲,沒有做冗餘視圖關聯。

  ES 擅長的是檢索,而 MySQL 才擅長關係管理。

  所以可以考慮二者結合,使用 ES 多索引建立相同的別名,針對別名檢索到對應 ID 後再回 MySQL 通過關聯 ID join 出需要的數據。

  方案三:使用 Nested 做好關聯

  適用場景:1 對少量的場景。

  舉例:有一個文檔描述了一個帖子和一個包含帖子上所有評論的內部對象評論。可以藉助 Nested 實現。

  Nested 類型選型——如果需要索引對象數組並保持數組中每個對象的獨立性,則應使用嵌套 Nested 數據類型而不是對象 Oject 數據類型。

  當使用嵌套文檔時,使用通用的查詢方式是無法訪問到的,必須使用合適的查詢方式(nested query、nested filter、nested facet等),很多場景下,使用嵌套文檔的複雜度在於索引階段對關聯關係的組織拼裝。

  方案四:使用 ES6.X 父子關係 Join 做關聯

  適用場景:1 對多量的場景。 舉例:1 個產品和供應商之間是1對N的關聯關係。 Join 類型:join 數據類型是一個特殊欄位,用於在同一索引的文檔中創建父/子關係。 關係部分定義文檔中的一組可能關係,每個關係是父名稱和子名稱。

  當使用父子文檔時,使用has_child 或者has_parent做父子關聯查詢。

  方案三、方案四選型對比:

  

  注意:方案三&方案四選型必須考慮性能問題。 文檔應該儘量通過合理的建模來提升檢索效率。

  Join 類型應該儘量避免使用。nested 類型檢索使得檢索效率慢幾倍,父子Join 類型檢索會使得檢索效率慢幾百倍。

  儘量將業務轉化為沒有關聯關係的文檔形式,在文檔建模處多下功夫,以提升檢索效率。

  小結

  

  我遇到過的坑

  如果能重來,我會如何設計 Elasticsearch 系統?

  來自累計近千萬實戰項目設計的思考。

  坑1: 數據清洗一定發生在寫入 es 之前!而不是請求數據後處理,拿勢必會降低請求速度和效率。

  坑2:高亮不要重複造輪子,用原生就可以。

  坑3:讓 es 做他擅長的事,檢索+不複雜的聚合,否則數據量+複雜的業務邏輯大會有性能問題。

  坑4:設計的工作必須不要省!快了就是慢了,否則無休止的因設計缺陷引發的 bug 會增加團隊的戳敗感!

  坑5:在給定時間的前提下,永遠不會有完美的設計,必須相對合理的設計+重構結合,才會有相對靠譜的系統。

  坑6:SSD 能提升性能,但如果系統業務邏輯非常負責,換了 SSD 未必達到預期。

  坑7:由於 Elasticsearch 不支持事務 ACID 特性,資料庫作為實時數據補充,對於實時數據要求嚴格的場景,必須同時採取雙寫或者同步的方式。這樣,一旦實時數據出現不一致,可以通過資料庫進行同步遞增更新。

  小結

  將TOP N 大家最關注的問題也是實戰中得得確確容易混淆的問題梳理出來,目的是:讓更多的後來人看到,不要再走一遍彎路。

  相信經過幾天梳理的實戰文檔,能給你帶來幫助! 感謝您的反饋和交流。

  和你一起,死磕 Elasticsearch!

相關焦點

  • 從Elasticsearch來看分布式系統架構設計
    這篇文章中,重點會討論下分布式數據系統的設計,比如分布式存儲系統,分布式搜索系統,分布式分析系統等。  我們先來簡單看下Elasticsearch的架構。  Elasticsearch 集群架構  Elasticsearch是一個非常著名的開源搜索和分析系統,目前被廣泛應用於網際網路多種領域中,尤其是以下三個領域特別突出。
  • elasticsearch Discovery 發現模塊學習
    一、基於單播的方式發現可以在 elasticsearch.yml 配置文件中使用discovery.zen.ping.unicast.hosts靜態設置設置主機列表。discovery.zen.ping.unicast.hosts: ["host1", "host2"]具體的值是一個主機數組或逗號分隔的字符串。
  • ElasticSearch架構反向思路
    根據自己的經驗來同樣設計一個系統,看包含哪些內容,使用哪些架構模式和思路,然後帶著自己設計的東西再去看另一個系統的設計思路,可能再更加清楚,也會反思自己的設計是否哪些地方存在問題,可以加以改進。Elasticsearch也使用Java開發並使用Lucene作為其核心來實現所有索引和搜索的功能,但是它的目的是通過簡單的RESTful API來隱藏Lucene的複雜性,從而讓全文搜索變得簡單。
  • 使用Elasticsearch做一個好用的日語搜尋引擎及自動補全 - 計算機...
    最近基於 Elastic Stack 搭建了一個日語搜索服務,發現日文的搜索相比英語和中文,有不少特殊之處,因此記錄下用 Elasticsearch 搭建日語搜尋引擎的一些要點。本文所有的示例,適用於 Elastic 6.X 及 7.X 版本。
  • Windows Search索引的磁碟和CPU高佔用問題有望徹底解決
    而在今天發布的Windows 10 Build 19592最新預覽版中,可以確認微軟正在對Windows Search Indexer進行更細緻的改進,通過優化邏輯能更快執行文件索引。Windows Search indexer通過創建索引提供更快的文件搜索體驗,用戶可以在文件管理器、任務欄搜索條、開始菜單中使用。
  • Twitter search升級搜索功能將給谷歌帶來壓力
    首頁 > 動態 > 關鍵詞 > 排行榜最新資訊 > 正文 Twitter search升級搜索功能將給谷歌帶來壓力
  • 資料庫面試常見問題:前綴索引、索引下推-開課吧
    資料庫面試1、前綴索引因為可能我們索引的欄位常,這既佔內存空間,也不利於維護。所以我們就想,如果只把很欄位的前的公共部分作為個索引,就會產超級加倍的效果。索引下推 (阿社招 )MySQL 5.6引了索引下推優化。默認開啟,使 SET optimizer_switch = 『index_condition_pushdown=offff』; 可以將其關閉。
  • Google索引指南告訴你:如何更快地讓谷歌搜索收錄你的外貿網站
    Google 索引就是圖書分類說明,它會按自己的索引編制規則對網際網路上各種信息進行分類整理,並存入索引庫,一旦有讀者(訪客)進行查詢書目(關鍵詞),圖書館(搜尋引擎)就會把這一類別的圖書展現給讀者(搜索結果展示)。
  • 2019 Go 開發者路線圖,請收下這份指南!
    今天,CSDN就為大家推薦了一份來自Github的2019年Go開發者指南,幫助大家快速入門Go語言。該指南提供了詳細的進階路線圖,列出了學習Go開發所需的各類知識和技能,而且每個知識點也附上啦相應的學習資源。相信無論是零基礎的新手,還是對Go語言有一定了解的開發者,都能夠有所收穫。
  • Yahoo to replace Google as Firefox browser's default search...
    its browser’s search engine from Google to Yahoo in the U.S., according to media reports on Friday.The five-year deal between Firefox and Yahoo will start in December, which integrates Yahoo search into Firefox's browser for desktop PCs and mobile devices such as smartphones.
  • 加速動態網站 MySQL索引分析和優化
    本文主要講述了如何加速動態網站的MySQL索引分析和優化。 一、什麼是索引? 索引用來快速地尋找那些具有特定值的記錄,所有MySQL索引都以B-樹的形式保存。如果我們創建了name列的索引,MySQL將在索引中排序name列,對於索引中的每一項,MySQL在內部為它保存一個數據文件中實際記錄所在位置的「指針」。
  • Python 多層索引3之from_tuple簡介
    再來介紹pandas.MultiIndex.from_tuple函數:是將元組變為多層索引。名稱:設置多層索引名稱,可選。index_t為想要設置為索引的元組df為需要的dataframe需要注意的是,將元組作為多層索引賦值給數組時,多層索引的層級是由元組內部的元組子集內元素的數量確定。
  • 《MySQL慢查詢優化》之SQL語句及索引優化
    >本文重點關注於SQL語句及索引優化,關於其他優化方式以及索引原理等,請關注本人《MySQL慢查詢優化》系列博文。,儘量將範圍查詢欄位放在最後(放在最後聯合索引使用最充分,放在中間聯合索引使用不充分)。
  • 機器學習時代的哈希算法,將如何更高效地索引數據
    哈希算法一直是索引中最為經典的方法,它們能高效地儲存與檢索數據。但在去年 12 月,Jeff Dean 與 MIT 等研究者將索引視為模型,探索了深度學習模型學習的索引優於傳統索引結構的條件。本文首先將介紹什麼是索引以及哈希算法,並描述在機器學習與深度學習時代中,如何將索引視為模型學習比哈希算法更高效的表徵。
  • 高德副總裁王桂馨:高德是連結真實世界的索引
    從導航服務,到打車平臺,再到出行指南和索引,高德為開發者和用戶締造了一份超級平臺。高德正在成為連接真實世界的索引。地圖和導航功能只是實現其他更多功能的一個基礎,在基礎功能之上,一切跟人們出行活動相關的信息都可以加載到平臺上,實現功能的拓展。以下為電商在線與高德副總裁王桂馨的部分對話內容。