DL4J与spark融合的本地测试代码中,为了能够利用本地存储节约训练缓存,我在参数服务器的配置中做了如下设置:
本地运行后报了如下错误:
Caused by: java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V
将配置重新改为,Driect模式则不报错:Driect模式如下:
可是Direct模式训练非常占用内存为此还是需要使用Export模式
后来经过查证,发现是,由于hadoop.dll 版本问题出现的,这是由于hadoop.dll 版本问题,2.4之前的和自后的需要的不一样,需要选择正确的版本(包括操作系统的版本),
并且在 Hadoop/bin和 C:\windows\system32 上将其替换。
提供了64位hadoop.dll相关文件的下载:hadoop2.6(x64)V0.2
有需要的同学可以拿去,不谢