Apache Ignite vs Apache Spark

2020-12-14 開源中國
jerryscott

2015/05/25 20:50

1. apache ignite實際上是grid gain的開源版本,但是gridgain的社區版一直沒有完全切換過去,仍然有專門人維護,這些人其實也是ignite的作者,實際上兩個代碼基線、輸出都沒有較大差別。
2. apache ignite神奇的地方在於它的集群可以支持1 billion的能力,很好奇它是如何做到的(可以看看gridgain的宣傳地方)
3. gridgain還有ignite存在的問題在於其文檔太差了,而且學習其API的章節很艱難晦澀。相比hazelcast它的社區還不夠活躍(比較一下github中gridgain的工程項目就知道。
4 ignite比較牛的地方在於zero deployment、對於hadoop的集成支持,還有內置了offheap的實現,前面兩個hazelcast不支持(可能3.6或更高版本會考慮的)然後就是它的transaction性能比較牛(可能hazelcast3.6會逐步趕上)

相關焦點

  • 【譯】Using .NET for Apache Spark to Analyze Log Data
    3 運行程序    需要使用spark-submit命令,該命令將提交您的應用程式以便在Apache Spark上運行。    spark-submit命令包括:–class,用於調用DotnetRunner–master, 用於定義是本地還是雲端的Spark提交Path,Microsoft.Spark jar的路徑應用程式的其他參數或依賴項,例如輸入文件或包含UDF定義的dll的路徑。
  • Apache Spark 1.6.1 發布,集群計算環境
    handle BYTE types[SPARK-11624] - Spark SQL CLI will set sessionstate twice[SPARK-11972] - [Spark SQL] the value of 'hiveconf' parameter in CLI can't be got after enter spark-sql
  • Apache Gora 0.8 發布,NoSQL 的 ORM 框架
    Apache Gora 支持資料庫如下:   - Apache Avro <http://avro.apache.org/> 1.8.1   - Apache Hadoop <http://hadoop.apache.org/> 2.5.2   - Apache HBase <http://hbase.apache.org/> 1.2.3
  • Apache Spark大數據分析入門(一)
    第二部分:介紹Spark SQL、Dataframes及如何結合Spark與Cassandra一起使用第三部分:介紹Spark MLlib和Spark Streaming第四部分:介紹Spark Graphx圖計算本篇講解的便是第一部分關於全部摘要和提綱部分,請登錄我們的網站 http://www.mammatustech.com/apache-spark-course-quick-start-real-time-data-analytics
  • Apache Beam實戰指南 | 手把手教你玩轉大數據存儲HdfsIO
    lt;artifactId>hadoop-common</artifactId><version>2.7.2</version><scope>provided</scope></dependency><dependency><groupId>org.apache.spark
  • 經典用例,精彩教程之Spark MLlib - Apache Spark的機器學習庫
    192021222324252627282930313233343536373839import org.apache.spark.mllib.recommendation.ALSimport org.apache.spark.mllib.recommendation.Ratingimport org.apache.spark.SparkConf object Movie {def main(args: Array[String]) { val conf = new SparkConf
  • Apache Spark 統一內存管理模型詳解
    Executor 端的堆內內存區域大致可以分為以下四大塊:Execution 內存:主要用於存放 Shuffle、Join、Sort、Aggregation 等計算過程中的臨時數據Storage 內存:主要用於存儲 spark 的 cache 數據,例如RDD的緩存、unroll數據;用戶內存(User Memory
  • scikit-learn(sklearn)0.18 官方文檔中文版 | ApacheCN
    ApacheCN(Apache中文網)- 關於我們 : http://cwiki.apachecn.org/pages/viewpage.action
  • 問題排查 | Spark OrcFileFormat inferSchema執行巨慢問題分析
    <init>(ReaderImpl.java:316) at org.apache.hadoop.hive.ql.io.orc.OrcFile.createReader(OrcFile.java:187) at org.apache.spark.sql.hive.orc.OrcFileOperator$$anonfun$getFileReader$2.apply(OrcFileOperator.scala
  • 代碼 | Spark讀取mongoDB數據寫入Hive普通表和分區表
    row format delimited fields terminated by '\t';二 IDEA+Maven+Java 依賴<dependency>      <groupId>org.apache.spark
  • 一、Spark概述
    官方網址:http://spark.apache.orghttps://databricks.com/spark/aboutSpark 四大特點1、速度快(比mapreduce在內存中快100倍,在磁碟中快10倍)spark中的job中間結果可以不落地
  • Spark 1.6.0 新手快速入門
    下面示例為一個簡單的應用示例: Scala /* SimpleApp.scala */ import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ import org.apache.spark.SparkConf object SimpleApp {
  • Apache Flink與Apache Spark 的對比
    Apache SparkApache spark和Apache Flink都是開源平臺,用於批量處理以及大規模的流處理,為分布式計算提供容錯和數據分發。但就流媒體功能而言,Flink遠比Spark好(因為spark以微批量形式處理流)並且具有對流的本機支持。Spark被認為是大數據的3G,而Flink則被視為大數據的4G。
  • 靜態/動態編譯在apache+php+mysql的應用
    我想大家有不少都成功實現apache+php+mysql,網上的文章也有不少,但我發現不少文章都是抄來抄去,並且沒有說明白編譯的方式,有的索性apache1.3的編譯方法原封不動的搬過來套在apache2.0,顯然誤導一些菜鳥!
  • 布客·ApacheCN 編程/後端/大數據/人工智慧學習資源 2020.6
    utm_source=home)Succinctly 中文系列教程(https://github.com/apachecn/succinctly-zh?utm_source=home)後端/大數據Spark 2.2.0 中文文檔(https://github.com/apachecn/spark-doc-zh?
  • Spark-2.0.2源碼編譯
    Spark官網下載地址:http://spark.apache.org/downloads.html有兩種一種是編譯好的 一種是沒編譯的(需要自己編譯) 看自己的選擇>下載好的文件解壓之後可以看源碼直接用IDE工具打開就可以從官網下載需要的版本https://archive.apache.org/dist/spark/解壓文件編譯前的環境準備
  • Spark本地環境實現wordCount單詞計數
    聚合統計每個單詞出現的次數RDD的操作1.讀取文件:sc.textFile("file:///opt/modules/spark/README.md")注意:textFile裡面的路徑,如果沒有指定schema,那麼默認的話是從HDFS文件系統讀取數據
  • 布客·ApacheCN 編程/後端/大數據/人工智慧學習資源 2020.8
    utm_source=home)後端/大數據Spark 2.2.0 中文文檔(https://github.com/apachecn/spark-doc-zh?utm_source=home)Storm 1.1.0 中文文檔(https://github.com/apachecn/storm-doc-zh?
  • 簡化TensorFlow和Spark互操作性:LinkedIn開源Spark-TFRecord
    開發人員只需包含 spark-tfrecord jar 庫,並使用傳統的 DataFrame API 讀寫 TFRecord 即可,如下代碼所示:import org.apache.commons.io.FileUtilsimport org.apache.spark.sql.{ DataFrame, Row }import org.apache.spark.sql.catalyst.expressions.GenericRowimport
  • Apache Rat 0.11 發布,軟體許可證檢查工具
    升級:* 命令行和 Apache Ant 用戶下載:* Apache Maven 用戶更新插件到 0.11相關連結:[1] http://creadur.apache.org/[2] http://creadur.apache.org/rat/[3] http://creadur.apache.org/release-notes/rat.txt[4] http://svn.apache.org