dataset不显示毫秒,处理时间数据时,还原它

//数据库中有一条数据是

2011-11-17 09:48:26.199

在dataset里,他显示是

2011-11-17 09:48:26

现在来显示它未显示的毫秒数:过程如下

  

DataSet ds = new DataSet();
            string selectdata = @"SELECT TMPLOGID,
                                  APP,
                                  FILENAME,
                                  OPERATOR,
                                  FILESIZE,
                                  AUTHOR,
                                  LOGTIME,
                                  OTHER,
                                  ISANALYSIS
                                FROM TB_TMPLOG ";
            ds = getDataSetBySQL(selectdata);
            DataTable t = ds.Tables[0];
            DataRow rowT = t.Rows[0];
            object obj = rowT[6];
            DateTime dt = Convert.ToDateTime(obj);
            string strTime = dt.Year + "-" + dt.Month + "-" + dt.Day + " " + dt.TimeOfDay;

//结果:strTime=2011-11-17 09:48:26.1990000

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Pytorch中处理中文数据需要进行以下几个步骤: 1. 将中文文本转换为数字序列,即进行分词和编码。可以使用jieba分词库对中文文本进行分词,然后使用torchtext.vocab.Vocab类将分词后的单词转换为数字。 2. 构建Dataset对象。可以使用torch.utils.data.Dataset类来构建自己的数据集,需要实现__init__、__getitem__和__len__三个方法。 3. 将Dataset对象转换为DataLoader对象。可以使用torch.utils.data.DataLoader类将Dataset对象转换为DataLoader对象,以便进行批处理数据增强等操作。 下面给出一个简单的中文文本分类的例子: ```python import jieba import torch from torch.utils.data import Dataset, DataLoader from torchtext.vocab import Vocab class ChineseTextDataset(Dataset): def __init__(self, data_path, vocab_path): self.data = [] self.vocab = Vocab.load(vocab_path) with open(data_path, "r", encoding="utf-8") as f: for line in f.readlines(): text, label = line.strip().split("\t") words = jieba.lcut(text) seq = torch.tensor([self.vocab.stoi[w] for w in words]) self.data.append((seq, int(label))) def __getitem__(self, idx): return self.data[idx] def __len__(self): return len(self.data) dataset = ChineseTextDataset("data.txt", "vocab.pkl") dataloader = DataLoader(dataset, batch_size=32, shuffle=True) ``` 其中,data.txt是中文文本和标签的数据文件,每行为一个样本,以tab分隔;vocab.pkl是使用torchtext.vocab.Vocab类生成的词表文件。该例子使用jieba分词库对中文文本进行分词,然后将分词后的单词转换为数字,并使用torch.utils.data.Dataset类构建自己的数据集。最后,使用torch.utils.data.DataLoader类将Dataset对象转换为DataLoader对象,以便进行批处理数据增强等操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值