solr-7.3.0\bin>Exception in thread "Thread-21" java.lang.OutOfMemoryError: Java heap space
at com.mysql.jdbc.MysqlIO.readPacket(MysqlIO.java:604)
at com.mysql.jdbc.MysqlIO.getResultSet(MysqlIO.java:417)
at com.mysql.jdbc.MysqlIO.readResultsForQueryOrUpdate(MysqlIO.java:3112)
at com.mysql.jdbc.MysqlIO.readAllResults(MysqlIO.java:2341)
at com.mysql.jdbc.MysqlIO.sqlQueryDirect(MysqlIO.java:2736)
at com.mysql.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2490)
at com.mysql.jdbc.ConnectionImpl.commit(ConnectionImpl.java:1555)
at org.apache.solr.handler.dataimport.JdbcDataSource.closeConnection(JdbcDataSource.java:571)
at org.apache.solr.handler.dataimport.JdbcDataSource.close(JdbcDataSource.java:560)
at org.apache.solr.handler.dataimport.DocBuilder.closeEntityProcessorWrappers(DocBuilder.java:289)
at org.apache.solr.handler.dataimport.DocBuilder.execute(DocBuilder.java:278)
at org.apache.solr.handler.dataimport.DataImporter.doFullImport(DataImporter.java:424)
at org.apache.solr.handler.dataimport.DataImporter.runCmd(DataImporter.java:483)
at org.apache.solr.handler.dataimport.DataImporter.lambda$runAsync$0(DataImporter.java:466)
at org.apache.solr.handler.dataimport.DataImporter$$Lambda$234/929216091.run(Unknown Source)
at java.lang.Thread.run(Thread.java:748)
solr使用dataimport导入数据的时候,一般情况能够快速导入数据,但由于数据库中数据量过大(我在导入的时候是百万级的),就会导致内存溢出的问题。
如何解决呢?
一方面是解决内存问题,不然solr程序就会通过oom脚本将solr实例杀死,导致程序无法正常使用。可以使用以下命令调整内存:
./solr start -m 1g
另一方面是设置参数
batchSize="-1"
在data_config.xml文件中修改配置:
<?xml version="1.0" encoding="UTF-8" ?>
<dataConfig>
<dataSource typ="JdbcDataSource"
driver="com.mysql.jdbc.Driver"
url="jdbc:mysql://127.0.0.1:3306/parse_cnki_all?useSSL=true&verifyServerCertificate=false&allowMultiQueries=true&useUnicode=true&characterEncoding=UTF-8"
user="root"
password="123456"
batchSize="-1"
/>
<document>
<!--name 使用数据库的表名 -->
<entity dataSource="JdbcDataSource" name="tb_parse_document" pk="id" query="SELECT id,title,author,address,abstracts,keyword,CAT, ref,year,roll,perioId,perioName,perioNum,fund,special_name,issn,cn,doi from tb_parse_document; " >
<!--column 是数据库的表的列,name 是solr中的列名 需要在manage-schema中配置规则 -->
<field column="id" name="id"/>
<field column="title" name="title"/>
<field column="author" name="author"/>
<field column="address" name="address"/>
<field column="abstracts" name="abstracts"/>
<field column="keyword" name="keyword"/>
<field column="CAT" name="CAT"/>
<field column="ref" name="ref"/>
<field column="year" name="year"/>
<field column="roll" name="roll"/>
<field column="perioId" name="perioId"/>
<field column="perioName" name="perioName"/>
<field column="perioNum" name="perioNum"/>
<field column="fund" name="fund"/>
<field column="special_name" name="special_name"/>
<field column="issn" name="issn"/>
<field column="cn" name="cn"/>
<field column="doi" name="doi"/>
</entity>
</document>
</dataConfig>
关于solr的索引问题
一次性创建索引
在JVM内存配置为256M时,建立索引至1572865时出现Java heap异常;增加JVM内存配置至512M,设置系统环境变量:JAVA_OPTS -Xms256m -Xmx512m,能成功建立2112890条(花费2m 46s)。
D:\develop\solr-7.3.0\bin>set JAVA_OPTS=-server -Xms1024m -Xmx1024m -XX:PermSize=128M -XX:MaxPermSize=256M
或者在D:\develop\solr-7.3.0\bin\solr.in.cmd里面修改set JAVA_OPTS=-server -Xms1024m -Xmx1024m配置
平均索引创建速度为:12728/s(两个string字段,长度大约为20字符)。
增量创建索引
注意:近实时增量索引需要写数据库服务的时间与搜索引擎服务器时间同步(数据库服务时间先于搜索引擎服务器时间才行)。
使用默认的DIH创建增量索引速度较慢(50/s~400/s),不如全索引(1W/s),因为需要从数据库中读取多遍(1、要更新的IDs;2、每1ID去数据库中重取所有列)。
故需要更改DIH增量索引程序,以全索引的方式读数据;或采取全读出的方式,一次全读出所有列,具体文件配置如上,通过这样的配置可以达到增量索引9000/s