[TOC]
員工經(jīng)過長期磨合與沉淀,具備了協(xié)作精神,得以通過團(tuán)隊(duì)的力量開發(fā)出優(yōu)質(zhì)的產(chǎn)品。創(chuàng)新互聯(lián)堅(jiān)持“專注、創(chuàng)新、易用”的產(chǎn)品理念,因?yàn)椤皩W⑺詫I(yè)、創(chuàng)新互聯(lián)網(wǎng)站所以易用所以簡單”。公司專注于為企業(yè)提供成都網(wǎng)站制作、成都做網(wǎng)站、外貿(mào)營銷網(wǎng)站建設(shè)、微信公眾號開發(fā)、電商網(wǎng)站開發(fā),小程序定制開發(fā),軟件按需定制設(shè)計(jì)等一站式互聯(lián)網(wǎng)企業(yè)服務(wù)。
非常基本的說明,下面一張圖就能夠有基本的理解:
1、Spark的核心概念是RDD (resilient distributed dataset,彈性分布式數(shù)據(jù)集),指的是一個只讀的,可分區(qū)的分布式數(shù)據(jù)集,這個數(shù)據(jù)集的全部或部分可以緩存在內(nèi)存中,在多次計(jì)算間重用。
2、RDD在抽象上來說是一種元素集合,包含了數(shù)據(jù)。它是被分區(qū)的,分為多個分區(qū),每個分區(qū)分布在集群中的不同Worker節(jié)點(diǎn)上,從而讓RDD中的數(shù)據(jù)可以被并行操作。(分布式數(shù)據(jù)集)
3、RDD通常通過Hadoop上的文件,即HDFS文件或者Hive表,來進(jìn)行創(chuàng)建;有時也可以通過RDD的本地創(chuàng)建轉(zhuǎn)換而來。
4、傳統(tǒng)的MapReduce雖然具有自動容錯、平衡負(fù)載和可拓展性的優(yōu)點(diǎn),但是其最大缺點(diǎn)是采用非循環(huán)式的數(shù)據(jù)流模型,使得在迭代計(jì)算式要進(jìn)行大量的磁盤IO操作(每跑完一個Job,拿到其中間結(jié)果后,再跑下一個Job,聯(lián)想使用MR做數(shù)據(jù)清洗的案例)。RDD正是解決這一缺點(diǎn)的抽象方法。RDD最重要的特性就是,提供了容錯性,可以自動從節(jié)點(diǎn)失敗中恢復(fù)過來。即如果某個節(jié)點(diǎn)上的RDD partition,因?yàn)楣?jié)點(diǎn)故障,導(dǎo)致數(shù)據(jù)丟了,那么RDD會自動通過自己的數(shù)據(jù)來源重新計(jì)算該partition。這一切對使用者是透明的。RDD的lineage特性(類似于族譜,像上面的圖,假如某個partition的數(shù)據(jù)丟失了,找到其父partition重新計(jì)算即可,我稱之為溯源)。
5、RDD的數(shù)據(jù)默認(rèn)情況下存放在內(nèi)存中的,但是在內(nèi)存資源不足時,Spark會自動將RDD數(shù)據(jù)寫入磁盤。(彈性)
(1)為什么會有Spark?因?yàn)閭鹘y(tǒng)的并行計(jì)算模型無法有效的解決迭代計(jì)算(iterative)和交互式計(jì)算(interactive);而Spark的使命便是解決這兩個問題,這也是他存在的價值和理由。
(2)Spark如何解決迭代計(jì)算?其主要實(shí)現(xiàn)思想就是RDD,把所有計(jì)算的數(shù)據(jù)保存在分布式的內(nèi)存中。迭代計(jì)算通常情況下都是對同一個數(shù)據(jù)集做反復(fù)的迭代計(jì)算,數(shù)據(jù)在內(nèi)存中將大大提升IO操作。這也是Spark涉及的核心:內(nèi)存計(jì)算。(一行搞定wc:sc.textFile("./hello").flatMap(_.split(" ")).map((_, 1)).reduceByKey(_+_).collect.foreach(println)
,這就是典型的迭代計(jì)算了)
(3)Spark如何實(shí)現(xiàn)交互式計(jì)算?因?yàn)镾park是用scala語言實(shí)現(xiàn)的,Spark和scala能夠緊密的集成,所以Spark可以完美的運(yùn)用scala的解釋器,使得其中的scala可以向操作本地集合對象一樣輕松操作分布式數(shù)據(jù)集。
(4)Spark和RDD的關(guān)系?可以理解為:RDD是一種具有容錯性基于內(nèi)存的集群計(jì)算抽象方法,Spark則是這個抽象方法的實(shí)現(xiàn)。
1、核心模塊開發(fā):離線批處理 Spark Core
2、實(shí)時計(jì)算:底層也是基于RDD Spark Streaming
3、Spark SQL/Hive:交互式分析
4、Spark Graphx:圖計(jì)算
5、Spark Mlib: 數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)
大多數(shù)應(yīng)該都要實(shí)地寫過spark程序和提交任務(wù)到spark集群后才有更好的理解。
當(dāng)前文章:Spark筆記整理(二):RDD與spark核心概念名詞
當(dāng)前網(wǎng)址:http://m.rwnh.cn/article42/psgjec.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供小程序開發(fā)、做網(wǎng)站、營銷型網(wǎng)站建設(shè)、移動網(wǎng)站建設(shè)、用戶體驗(yàn)、靜態(tài)網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)