第一种方式
package com.kafka.my.scala
import org.apache.spark.SparkConf
import org.apache.spark.streaming.Durations
import org.apache.spark.streaming.StreamingContext
import org.apache.spark.streaming.kafka.KafkaUtils
import java.util.Properties
/**
*
* @author root
* sparkstreaming获取kafka方式一
* 测试结果:通过
*测试:1\需要先在h15\h16\h17上启动zookeeper,再启动kafka,创建kafka的topic
* 2\在h15kafka的bin目录下执行
* #sh kafka-console-producer.sh --topic 20160510a --broker-list h15:9092,h16:9092,h17:9092
* 让其等待输入
* 3\启动本程序接受数据
* 4\在h15上刚才的窗口输入数据
* 5\查看本程序是否正常接收
*
*错误:java.nio.channels.ClosedChannelException
* fetching topic metadata for topics [Set(20160510aa)] from broker [ArrayBuffer(id:2,host:h17,port:9092, id:1,host:h16,port:9092, id:0,host:h15,port:9092)] failed
原因:server.propertis中的host.name=h15或者注释掉