java程序根据词典wordDict给字符串s进行分词,返回用“|“链接的字符串

1.根据词典wordDict给字符串s进行分词,返回用"|"链接的字符串

示例:

输入:

s=“今天天气不错”,
wordDict=[“今天”,“天天”,“天气”,“不错”,“错”]

输出∶

今天|天气|不错

代码:

package participle;

import java.util.*;

/**
 * @author :xiaotao
 * @date :2021/3/29 10:58
 * @description:
 */
public class Participle {
    public static void main(String[] args) {
        String s = "今天天气不错";

        List<String> wordDict = Arrays.asList("今天", "天天", "天气", "不错", "错");

        String s1 = new Solution().wordBreak(s, wordDict);
        System.out.println(s1);
       
    }
}

class Solution {
    // 拆分单词
    public String wordBreak(String s, List<String> wordDict) {
        // 哈希表存储字符串s的每个下标和从该下标开始的部分可以组成的句子列表
        // 在回溯过程中如果遇到已经访问过的下标,则可以直接从哈希表得到结果,而不需要重复计算
        // 如果到某个下标发现无法匹配,则哈希表中该下标对应的是空列表
        // 因此可以对不能拆分的情况进行剪枝优化。
        Map<Integer, List<List<String>>> map = new HashMap<>();
        // 使用记忆回溯进行字符串拆分
        List<List<String>> wordBreaks = backtrack(s, s.length(), new HashSet<>(wordDict), 0, map);
        String result = "";
        for (List<String> wordBreak : wordBreaks) { // 结果添加
            for (int i = 0; i < wordBreak.size(); i++) {
                String word = wordBreak.get(i);
                if (i < wordBreak.size() - 1) {
                    result = result + word + "|";
                } else {
                    result = result + word;
                }
            }
        }
        return result;
    }

    public List<List<String>> backtrack(String s, int length, Set<String> wordSet,
                                        int index, Map<Integer, List<List<String>>> map) {
        if (!map.containsKey(index)) { // 判断匹配字符串的下标位置
            List<List<String>> wordBreaks = new LinkedList<>();
            if (index == length) { // 匹配到字符串末尾
                wordBreaks.add(new LinkedList<>());
            }
            for (int i = index; i <= length; i++) { // 对剩下的字符串进行匹配
                String word = s.substring(index, i);  // 按顺序截取其中一部分内容
                if (wordSet.contains(word)) { // 单词表中含有字母
                    // 递归调用, 用接下来的字符串进行继续拆分
                    List<List<String>> nextWordBreaks = backtrack(s, length, wordSet, i, map);
                    for (List<String> nextWordBreak : nextWordBreaks) {
                        LinkedList<String> wordBreak = new LinkedList<String>(nextWordBreak);
                        wordBreak.offerFirst(word);
                        wordBreaks.add(wordBreak);
                    }
                }
            }
            map.put(index, wordBreaks);
        }
        return map.get(index);
    }
}

运行结果:

E:\develop\Java\jdk1.8.0_171\bin\java.exe...
今天|天气|不错

Process finished with exit code 0

word分词是一个Java实现的中文分词组件,提供了多种基于词典分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file demo text 杨尚川是APDPlat应用级产品开发平台的作者 file d:/text.txt d:/word.txt exit 2、对文本进行分词 移除停用词:List words = WordSegmenter.seg("杨尚川是APDPlat应用级产品开发平台的作者"); 保留停用词:List words = WordSegmenter.segWithStopWords("杨尚川是APDPlat应用级产品开发平台的作者"); System.out.println(words); 输出: 移除停用词:[杨尚川, apdplat, 应用级, 产品, 开发平台, 作者] 保留停用词:[杨尚川, 是, apdplat, 应用级, 产品, 开发平台, 的, 作者] 3、对文件进行分词 String input = "d:/text.txt"; String output = "d:/word.txt"; 移除停用词:WordSegmenter.seg(new File(input), new File(output)); 保留停用词:WordSegmenter.segWithStopWords(new File(input), new File(output)); 4、自定义配置文件 默认配置文件为类路径下的word.conf,打包在word-x.x.jar中 自定义配置文件为类路径下的word.local.conf,需要用户自己提供 如果自定义配置和默认配置相同,自定义配置会覆盖默认配置 配置文件编码为UTF-8 5、自定义用户词库 自定义用户词库为一个或多个文件夹或文件,可以使用绝对路径或相对路径 用户词库由多个词典文件组成,文件编码为UTF-8 词典文件的格式为文本文件,一行代表一个词 可以通过系统属性或配置文件的方式来指定路径,多个路径之间用逗号分隔开 类路径下的词典文件,需要在相对路径前加入前缀classpath: 指定方式有三种: 指定方式一,编程指定(高优先级): WordConfTools.set("dic.path", "classpath:dic.txt,d:/custom_dic"); DictionaryFactory.reload();//更改词典路径之后,重新加载词典 指定方式二,Java虚拟机启动参数(中优先级): java -Ddic.path=classpath:dic.txt,d:/custom_dic 指定方式三,配置文件指定(低优先级): 使用类路径下的文件word.local.conf来指定配置信息 dic.path=classpath:dic.txt,d:/custom_dic 如未指定,则默认使用类路径下的dic.txt词典文件 6、自定义停用词词库 使用方式和自定义用户词库类似,配置项为: stopwords.path=classpath:stopwords.txt,d:/custom_stopwords_dic 7、自动检测词库变化 可以自动检测自定义用户词库和自定义停用词词库的变化 包含类路径下的文件和文件夹、非类路径下的绝对路径和相对路径 如: classpath:dic.txt,classpath:custom_dic_dir, d:/dic_more.txt,d:/DIC_DIR,D:/DIC2_DIR,my_dic_dir,my_dic_file.txt classpath:stopwords.txt,classpath:custom_stopwords_dic_dir, d:/stopwords_more.txt,d:/STOPWORDS_DIR,d:/STOPWORDS2_DIR,stopwords_dir,remove.txt 8、显式指定分词算法 对文本进行分词时,可显式指定特定的分词算法,如: WordSegmenter.seg("APDPlat应用级产品开发平台", SegmentationA
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值