在DataSet中处理字段中的NULL问题入门6

image

比如上面的nothing会员的学习记录为空,在程序中可以这样来判断:

private static void 处理NULL数据()
        {
            会员数据TableAdapter adapter = new 会员数据TableAdapter();
            强类型数据集.会员数据.会员数据DataTable data = adapter.GetData();
            if (data[1].Is学习记录Null())
            {
                Console.WriteLine("学习记录为空");
            }
            else
            {
                Console.WriteLine("学习记录为:{0}", data[1].学习记录);
            }
        }
经过生成类型化的数据集DataSet后,所有的可以为空的(这个和数据库里面的定义有关系)字段都有一个空值NULL的判断方法:

image

然后我想显示第一个记录的学习纪录,修改了下源程序

private static void 处理NULL数据()
        {
            会员数据TableAdapter adapter = new 会员数据TableAdapter();
            强类型数据集.会员数据.会员数据DataTable data = adapter.GetData();
            if (data[0].Is学习记录Null())
            {
                Console.WriteLine("学习记录为空");
            }
            else
            {
                Console.WriteLine("学习记录为:{0}", data[1].学习记录);
            }
            
        }

出错了:

image

哪里出错了呢?

转载于:https://www.cnblogs.com/angestudy/archive/2011/03/30/2000378.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Pytorch处理文数据需要进行以下几个步骤: 1. 将文文本转换为数字序列,即进行分词和编码。可以使用jieba分词库对文文本进行分词,然后使用torchtext.vocab.Vocab类将分词后的单词转换为数字。 2. 构建Dataset对象。可以使用torch.utils.data.Dataset类来构建自己的数据集,需要实现__init__、__getitem__和__len__三个方法。 3. 将Dataset对象转换为DataLoader对象。可以使用torch.utils.data.DataLoader类将Dataset对象转换为DataLoader对象,以便进行批处理和数据增强等操作。 下面给出一个简单的文文本分类的例子: ```python import jieba import torch from torch.utils.data import Dataset, DataLoader from torchtext.vocab import Vocab class ChineseTextDataset(Dataset): def __init__(self, data_path, vocab_path): self.data = [] self.vocab = Vocab.load(vocab_path) with open(data_path, "r", encoding="utf-8") as f: for line in f.readlines(): text, label = line.strip().split("\t") words = jieba.lcut(text) seq = torch.tensor([self.vocab.stoi[w] for w in words]) self.data.append((seq, int(label))) def __getitem__(self, idx): return self.data[idx] def __len__(self): return len(self.data) dataset = ChineseTextDataset("data.txt", "vocab.pkl") dataloader = DataLoader(dataset, batch_size=32, shuffle=True) ``` 其,data.txt是文文本和标签的数据文件,每行为一个样本,以tab分隔;vocab.pkl是使用torchtext.vocab.Vocab类生成的词表文件。该例子使用jieba分词库对文文本进行分词,然后将分词后的单词转换为数字,并使用torch.utils.data.Dataset类构建自己的数据集。最后,使用torch.utils.data.DataLoader类将Dataset对象转换为DataLoader对象,以便进行批处理和数据增强等操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值