国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

您好,歡迎來電子發燒友網! ,新用戶?[免費注冊]

您的位置:電子發燒友網>源碼下載>數值算法/人工智能>

基于MapReduce的聚類算法在大數據運行速度

大小:1.30 MB 人氣: 2017-11-10 需要積分:0

  隨著信息技術的進步以及信息化社會的發展,出現各式各樣的海量數據,大量的數據累積在數據庫和數據倉庫中,理解它們已遠遠超出了人的能力。如何將這些堆積的“數據”轉變成人們理解的“知識”,數據挖掘技術應運而生o”。從技術角度看,數據挖掘是從大量的、不完全的、有噪聲的、模糊的、隨機的、看似雜亂的實際數據中,提取隱含在其中的、人們不知道的,但又是潛在有用的信息和知識的過程。聚類分析是一項非常實用的數據挖掘技術。但面對龐大的數據集規模,計算的效率受限于單機處理能力。如何提高海量數據下的聚類分析能力是迫切需要解決的問題。Google實驗室提出的分布式并行編程模型或框架MapReducer3],它通過集群來處理海量數據,是云計算平臺主流的并行數據處理模型。

  Apache推出的Hadoop平臺用Java實現了MapReduce模型。Mahout是Hadoop平臺的組件之一,是一個機器學習和數據挖掘庫,它利用MapReduce編程模型實現了數據挖掘中的眾多算法,且具有良好的可擴展性。本文在此基礎上,并基于Mahout進行了聚類實例研究。
?

非常好我支持^.^

(0) 0%

不好我反對

(0) 0%

      發表評論

      用戶評論
      評價:好評中評差評

      發表評論,獲取積分! 請遵守相關規定!

      ?