博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
java spark WordCount
阅读量:5898 次
发布时间:2019-06-19

本文共 1907 字,大约阅读时间需要 6 分钟。

hot3.png

java spark WordCount 博客分类: java spark  

spark,又一个传说中的分布式实现,详情:http://spark-project.org/,

安装这里就不写了,因为网上已有中文介绍,这里主要是介绍一下入门,和hadoop一样,学习的时候,首先学习spark提供的字符统计例子:javaWordCount

org.apache.spark
spark-core_2.10
1.1.0

 

原始代码如下:

Java代码  
收藏代码
  1. import scala.Tuple2;  
  2. import spark.api.java.JavaPairRDD;  
  3. import spark.api.java.JavaRDD;  
  4. import spark.api.java.JavaSparkContext;  
  5. import spark.api.java.function.FlatMapFunction;  
  6. import spark.api.java.function.Function2;  
  7. import spark.api.java.function.PairFunction;  
  8.   
  9. import java.util.Arrays;  
  10. import java.util.List;  
  11.   
  12. public class JavaWordCount {  
  13.   public static void main(String[] args) throws Exception {  
  14.     if (args.length < 2) {  
  15.       System.err.println("Usage: JavaWordCount <master> <file>");  
  16.       System.exit(1);  
  17.     }  
  18.   
  19.     JavaSparkContext ctx = new JavaSparkContext(args[0], "JavaWordCount",  
  20.         System.getenv("SPARK_HOME"), System.getenv("SPARK_EXAMPLES_JAR"));  
  21.     JavaRDD<String> lines = ctx.textFile(args[1], 1);  
  22.   
  23.     JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() {  
  24.       public Iterable<String> call(String s) {  
  25.         return Arrays.asList(s.split(" "));  
  26.       }  
  27.     });  
  28.       
  29.     JavaPairRDD<String, Integer> ones = words.map(new PairFunction<String, String, Integer>() {  
  30.       public Tuple2<String, Integer> call(String s) {  
  31.         return new Tuple2<String, Integer>(s, 1);  
  32.       }  
  33.     });  
  34.       
  35.     JavaPairRDD<String, Integer> counts = ones.reduceByKey(new Function2<Integer, Integer, Integer>() {  
  36.       public Integer call(Integer i1, Integer i2) {  
  37.         return i1 + i2;  
  38.       }  
  39.     });  
  40.   
  41.     List<Tuple2<String, Integer>> output = counts.collect();  
  42.     for (Tuple2 tuple : output) {  
  43.       System.out.println(tuple._1 + ": " + tuple._2);  
  44.     }  
  45.     System.exit(0);  
  46.   }  
  47. }  

  运行: ./run spark/examples/JavaWordCount  local input.txt

 local:不解析,自己查

input.txt:文件类容

Html代码  
收藏代码
  1. Hello World Bye World goole  

 运行的结果和haddoop中运行的JavaWordCount  一样

 

Html代码  
收藏代码
  1. goole: 1  
  2. World: 2  
  3. Hello: 1  
  4. Bye: 1 

转载于:https://my.oschina.net/xiaominmin/blog/1597841

你可能感兴趣的文章
Python安装模块
查看>>
实现超级简单的bug管理系统
查看>>
Java集合中的AbstractMap抽象类
查看>>
图像滤镜艺术---(Lightleaks Filter)漏光滤镜
查看>>
[LeetCode] Find Anagram Mappings 寻找异构映射
查看>>
--Too small initial heap for new size specified
查看>>
黄聪:3分钟学会sessionStorage用法
查看>>
17monipdb根据IP获得区域
查看>>
Entity Framework 全面教程详解(转)
查看>>
模拟源码深入理解Vue数据驱动原理(2)
查看>>
Hibernate的配置中,c3p0连接池相关配置
查看>>
js 温故而知新 用typeof 来判断一个未定义的变量
查看>>
C# HttpWebResponse下载限速
查看>>
用创业舞动飞扬的青春
查看>>
Windows上Python2.7安装Scrapy过程
查看>>
Android 网络HTML查看器
查看>>
Tensorflow神经网络预测股票均价
查看>>
Matlab随笔之插值与拟合(上)
查看>>
关于大数据和数据库的讨论
查看>>
Chapter 3:Code Style in Django
查看>>