- 博客(17)
- 收藏
- 关注
原创 flink streampark初步使用
解压flink-1.18.1-bin-scala_2.12.tgz。修改rest.address=0.0.0.0。3、部署streampark。4、进入streampark。使用Flink Sql。问题2:数据库用户权限。
2024-07-23 09:57:33 206
原创 记录一次flink消费kafka写入hive
2、java代码实现消费kafka写入hive。技术还是的学,学的越多越好。好多年没有记录这些事情了。
2024-01-27 20:27:37 439
原创 HTTP中定义的响应码及其意义:
205重置内容206部分内容300多选项301永久地传递302找到303参见其他304未改动305使用代理307暂时重定向400错误请求401未授权402要求付费403禁止404未找到405不允许的方法406不被采纳407要求代理授权408请求超时409冲突410过期的
2013-07-29 18:00:11 128
原创 iphone手机push小应用
blic class ApplePushInfo { private Log logger = LogFactory.getLog(this.getClass()); private PushDao pushDao; //证书 private String keystore = ApplicationConfig.getApplicationConfig().getPropertie("push.iphone.keystore", "d:/apns.p12&qu
2012-07-16 15:15:24 97
原创 hive安装完成后遇到的问题
metadata: javax.jdo.JDOFatalDataStoreException: Communications link failureThe last packet sent successfully to the server was 0 milliseconds ago. The driver has not received any packets from the server.NestedThrowables:com.mysql.jdbc.exceptions.jdbc
2012-06-29 16:01:33 259
原创 hadoop集群搭建+eclipse开发环境配置
8.10.29 slave 1、下载hadoop-1.0.3、jdk1.7.0_04(略过) 2、安装hadoop和jdk (hadoop目录为:/opt/789/hadoop-1.0.3,jdk安装目录为:/opt/789/jdk1.7.0_04) 3、用户设置以及无密钥通信 a、分别为机器创建hadoop专用用户,命令:$adduserhadoop
2012-06-27 17:55:40 371
原创 hbase配置报错
13,650 INFO org.mortbay.log: Started SelectChannelConnector@0.0.0.0:600102012-06-27 10:58:13,650 DEBUG org.apache.hadoop.hbase.master.HMaster: Started service threads2012-06-27 10:58:15,151 INFO org.apache.hadoop.hbase.master.ServerManager: Waiting on
2012-06-27 11:05:49 136
原创 使用xfire做个简单的webservice
p xfire-all-1.2.6.jar2、新建j2ee项目。导入jar包 3、在web.xml中配置xfire的servlet <servlet> <servlet-name>XFireServlet</servlet-name> <servlet-class>org.codehaus.xfire.transpo
2012-06-11 17:44:11 117
原创 求助:hadoop 启动时namenode启动不成功。报错日志见文章
tils.createSocketAddr(NetUtils.java:162) at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:198) at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:228) at org.apache.hadoop.hdfs.server.namenode.NameNode.in
2012-05-22 11:29:27 661
原创 我也来分享一下手里的资源
1tpan.com/tp0538488451java core 1:http://d.1tpan.com/tp0563831312 java core 2:http://d.1tpan.com/tp1102482433java面向对象编程(孙卫琴):http://d.1tpan.com/tp0819522103精通Eclipse:http://d.1tpan.com/tp1528482472hadoop hadoop官方文档:http://d.1tpan.com/tp1282442757 Hadoop开
2012-04-28 14:49:00 187
原创 Hadoop搭建-单机模式
nloads/jdk-6u30-download-1377139.htmlb) jdk安装目录/opt/jdk1.6.0_302、 hadoop安装(hadoop1.0.0)a) 下载地址:http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.0.0/b) hadoop安装目录/opt/hadoop-1.0.03、 修改$HADOOP_HOME$/etc/hadoop/hadoop-env.sh,添加JAVA_HOME=/opt/
2012-01-11 10:19:07 138
原创 求助:lucene和socket
lucene查询时速度不够快,100W数据量需要5000ms左右。解决方案一:将要索引的字段进行合并成一个大字段,在查询时只查询大字段。解决方案二:做lucene时,生成一个sessionid,只存储该sessionid,对其他数据只索引不存储,将sessionid和其他数据存入oracle数据库。查询时,在lucene中只查询出sessionid,根据sessionid在oracle中查询详细数据。这两种方案做下来效果都不是特别明显,小弟是不是在做时疏忽了什么,请各位大侠指点一二。2、一键
2011-12-08 11:16:29 85
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人