小说自动生成工具

小说工具箱的搭建

最近逐渐喜欢上写小说,除了码代码之余,还会出去旅游。
不过有时候在写小说的时候,会遇上不知道怎么给人物起名字。于是动手做了个小工具,顺便发到线上,供各位喜欢写小说的作者们使用。

工具集成网站示例:点击访问

智能提示

在任何地方输入使用TAB键,都能够智能提示:
在这里插入图片描述

给人物起名字

姓规则:输入单或者复姓
名字规则:可以选择男性、女性或者是中性
参考模型是通过训练普查人物姓名得出的,因此还是比较通顺。
在这里插入图片描述

近义词查找

2019/4/1更新:增加近义词查找
最近在写小说过程中,发现有时候需要查找一些近义词来表达,但是经常需要上百度查找,麻烦浪费时间,因此自己写了一个近义词查找的工具,供大家使用。
在这里插入图片描述

段落查找

2019/5/15更新:增加段落查找
以前我收录的片段都是记在笔记中,现在也写出一个工具出来,方便大家查找。
在这里插入图片描述

  • 9
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
1 HTM(HTML)转TXT 所需软件:HTML2TXT.exe 说明:启动软件,单击“添加文件”按钮找到需要转换的HTML文件;选择一个输出文件夹,然后单击“开始”按钮即可得到反编译后的HTM文件。 2 CHM转TXT 所需软件:CHM Encoder 说明:启动软件,单击“打开”按钮,找到需要转换的CHM文件;选择一个输出文件夹,然后单击“开始”按钮,即可得到反编译后的HTM文件。接下来执行上面讲过的HTM(HTML)转TXT的步骤,即可得到TXT文件。 3 PDF转TXT 所需软件:PDF Text Converter 说明:启动软件后,先在左上方的浏览器窗口内找到PDF文件所在的文件夹,此时左下方的文件列表窗口中会显示出该文件夹中的PDF文件,选中欲转换的文件,单击工具栏上的“添加文件”按钮,即会在右上方的窗口中列出等待转换的文件,添加完成后,单击齿轮形状的“转换”按钮,即可完成转换,转换好的TXT文件保存在源文件所在文件夹内。 4 JAR转TXT 所需软件:WinRAR 说明:只要你的电脑上安装了WinRAR,即可右击JAR文件,直接将其解压缩。此时你需要做的,就是将这些没有扩展名的文件加上TXT的扩展名并合并(快捷的方法下面会有介绍)。 5 UMD转TXT 所需软件:XBookMaker 说明:启动软件后,单击左上方的“Open folder”按钮,定位到包含UMD电子书的文件夹,此时会在左边的的“Files”窗口列出该文件夹内包含的所有UMD格式的电子书,点击一个UMD文件,左下方的“Chapters”窗口中即会显示该电子书中所包含的章节。单击任意一个章节,即可在右边的窗口中看到该章节的内容。现在你只需将其复制并将其粘贴到记事本中,保存为TXT即可, 6 EXE转TXT 所需软件:miniKillEBook 说明:先打开想要转换的EXE电子书,再启动miniKillEBook,勾选“以文本方式保存”复选框,拖动图中的图标到电子书窗口中,单击“开始”按钮,软件即会自动将电子书“逐页翻过”并将每一页的内容存为TXT文本。 刚看到的软件,我比较喜欢用手机看书,这个很方便
好的,我可以帮你解决这个问题。首先,你需要先准备一个小说文本数据集,然后按照以下步骤在PyTorch中构建LSTM进行文本生成。 1. 加载数据集并进行预处理: 将文本数据集读入,并将其转换成数字序列。你可以使用PyTorch内置的Tokenizer来进行这个过程。 2. 定义LSTM模型: 构建一个LSTM模型,包括一个嵌入层(embedding layer),一个LSTM层和一个全连接层。你可以使用PyTorch的nn模块来实现这个过程。 3. 定义损失函数和优化器: 为了训练模型,你需要定义损失函数和优化器。在这个例子中,我们可以使用交叉熵损失函数和Adam优化器。 4. 训练模型: 将数据输入到模型中,通过反向传播来更新模型参数。你可以使用PyTorch的autograd模块来自动计算梯度,然后使用优化器来更新模型参数。 5. 生成文本: 在训练模型之后,你可以使用模型生成新的文本。具体的方法是,给定一个起始文本片段,通过模型生成下一个字符,然后将其添加到文本片段中,再次输入到模型中,重复这个过程直到生成所需长度的文本。 下面是一个基本的代码框架,可以帮助你开始构建LSTM模型进行小说文本生成: ```python import torch import torch.nn as nn import torch.optim as optim # 加载数据集并进行预处理 # ... # 定义LSTM模型 class LSTMModel(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(LSTMModel, self).__init__() self.hidden_size = hidden_size self.embedding = nn.Embedding(input_size, hidden_size) self.lstm = nn.LSTM(hidden_size, hidden_size) self.fc = nn.Linear(hidden_size, output_size) self.softmax = nn.LogSoftmax(dim=1) def forward(self, input, hidden): embedded = self.embedding(input).view(1, 1, -1) output, hidden = self.lstm(embedded, hidden) output = self.fc(output[0]) output = self.softmax(output) return output, hidden def init_hidden(self): return (torch.zeros(1, 1, self.hidden_size), torch.zeros(1, 1, self.hidden_size)) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001) # 训练模型 for epoch in range(num_epochs): # 在每个epoch中,对数据集进行一次完整的遍历 # ... # 生成文本 # ... ``` 希望这个代码框架能够帮助你开始构建LSTM模型进行小说文本生成。如果你需要更多的细节或者帮助,可以随时问我。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值