tf卡可以自己裁剪成nm卡_手头这多卡—到底哪款TF卡才值得购买?

又到一年升级时—手头TF卡横评乱斗!

一年之计在于春,各行各业都忙着开工复产。作为在数码IT爱好者的各位值友,谁手上没有个几张TF卡?

趁着这个新春之计的时节,各个厂家品牌都推出了自己的新品TF卡。自己趁着这个假期也整理了手头的TF卡,来一个小规模的横向测评吧。

0618f89902fdc3e4d5cfcf7e25b6cca6.png

一、搞清TF卡

在我的印象中,当时为了使用诺基亚的扭腰式音乐手机5700,第一次为手机配备TF卡,这才是TF卡第一次真正走进了我的生活,

在此之前一直傻傻搞不清TF卡与SD卡的区别与关联,直到第一次入手TF卡才明白,它们二者之间真正的区别和联系。

这是我目前手头最久远的TF卡,容量256MB,品牌未知。

9f92311e021f66e68c47835bf271256f.png

二、手头的TF卡

这些TF卡,从最早的到最晚的,前后时间跨度也将近15年了,看看TF性能进化到了什么程度。

f0fac17674a91180a321a98607151cc3.png

1、不知名TF卡,品牌未知,容量256MB,由于容量太小现在基本无法使用。

62200140a44421186d4280e09bb80e65.png
ee6c0185e6e178caa7e830450a7e37d4.png

进行速度测试已经没有意义,不再测试。

2、金士顿4G TF卡,现在用于随身调频音响,非常适合晨练的时候,不想听广播了,可以听音乐。

17fc4d546160109b57b52b74e11c5dd6.png
b970c7c23dd9b3c5efc10e5463cd7468.png

进行速度测试:

028ec57f11b3bc4744a9414fc4e394e4.png
2b4b310b26ee5b31800e69caa3cad508.png
f35dbdf9404f42312665ede4f0dd0751.png

3、金士顿8G TF卡,现在已经坏掉,个人闲置,后来查询不是正品,当年被电脑城坑了。

494dab05f217d91b3204b1c55a1edfb0.png
855902590e686376f3f389da0476ab51.png

进行速度测试:TF卡损坏,无法完成。

4、金士顿32G TF卡,曾经用于行车纪录仪,由于TF卡容量逐渐升级,现在个人闲置。

bd168924fd2d49bc45d75ca7bb050b0c.png
1e88fbf12028d39bcde4ecf19a2bd963.png

进行速度测试:

1f3c8728f7473da0a369fa500eba9126.png
58eab35c907725e5bc7c2e654ce4416f.png
b94ae9ef0005a7b7db2da8fb1d070189.png

5、金士顿C10 32G TF卡,某外设论坛活动奖品,此卡具有三防功能,适合野外、模型、水下等场景使用。

9a276dcc5494bb79f517b4d0c21a1cbf.png
f7ee7734dc60c711d2c9f6951e6771b4.png

进行速度测试:

c842d247b6372395e97b04f55384feee.png
0bba4d387fe278ba2921ecc3c6529f49.png
798889fe459aaa92806dd7af103801b7.png

6、三星64G EVO TF卡,曾经用于单反相机,现在个人闲置,准备用于HIFI播放器。

52a73e0fc60132abd4690c44c2f1e88d.png
af0127070492c2034775bb9319410d92.png

进行速度测试:

379d0eb4f6c6bdb2e80ffb7fe34853ce.png
8b66a28e9f8014de31802035b3547d24.png
16c14227f9e771036f6b7e7a208d4afe.png

7、东芝128G M203 TF卡,东芝存储VIP会员俱乐部活动奖品,以速度快作为主要卖点。

1f2881cbf6b82fa0f88194dab8258b5a.png
2d136e2a77eb0395ee27f8dc45117831.png

进行速度测试:

660789559a4d62f2e0c0596104f87d4e.png
15244ebf5379b8c1a92305090805ea01.png
46021e5a7230e3f98c4ab9d7d6ca2a6e.png

8、金士顿128G SELECT TF卡,春节前购买于JD商城,现在用于行车记录仪,主打数据安全和可靠。

8acb0968a3cc1417df2a6d9eb43b88ac.png
a1792ab5f6ae879376ab9a7784bfdcbe.png

进行速度测试:

25e77fa956491c0bd92040dac8ad7e4e.png
d1d8bab8be2a15d2682e2adec33a4f1d.png
16d12934315be68507650177ed32a355.png

9、闪迪128G ULTRA TF卡,主要用于HIFI播放器,在马爸爸家赠买HI-RES音乐的载体。

d7f8820b45a43e6fedcc54dc2e09939a.png
2e546cccd1587d901695f139ff8b5d24.png

进行速度测试:

f8c7ab318e15ab2e5544093c9e7ef97d.png
0e6a87f0919798f6593642067a14891e.png
542c5cec04e0713576ba2b562562b909.png

10、金士顿 512G GO TF卡,主打快速读取和写入,2020年的新款,最大读取速度170MB/S。

42dc7cc0bb9dd55375b626fd6c968e9b.png
8b1f3bcdffa4957dd436638b949bec6f.png

包装,终生质保。

51c691bfa5585e20bea65266ea0bc346.png
aaf329bf6627a83a575b3ef2da4b66c8.png
d72211e022555f8e8eac78bcd6004ae1.png

TF卡本体为黑蓝色系,并赠送了转SD卡托。

e46fbc3e85b70c82eccca17bbb6bfeec.png
20ea763282c730671a931b80be45f0db.png
9487d0370b66fae89c9e1f3d16725823.png

进行速度测试:

dcc7d9e3eed5950b4ee60388f29f1361.png
785585998c2fabd6fccc6a0ca67861df.png
bda5f4c29eaf9752df9c074c4aa3732a.png

可以看到,基本上TF卡的性能进化本着换代长档的原则,即经过技术的积累和进步,下一代中端TF卡的性能基本上达到或超载上一代高端TF卡的现状。

三、总结

本着张大妈的分享精神,自己依次测试了手头的这几张TF卡,由于时代不同,技术不同,各张TF卡性能对比是没有意义的。随着时间的流淌,TF卡的容量和性能也将发生着翻天覆地的变化。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将 PyTorch 单机单的脚本修改为单机多,需要执行以下步骤: 1. 导入必要的库和设定参数 ```python import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader from torchvision import datasets, transforms # 设定参数 device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") batch_size = 64 epochs = 10 learning_rate = 0.01 ``` 2. 加载数据集并进行数据增广 ```python # 加载数据集 train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transforms.ToTensor()) test_dataset = datasets.CIFAR10(root='./data', train=False, download=True, transform=transforms.ToTensor()) # 数据增广 train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=4, pin_memory=True) test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False, num_workers=4, pin_memory=True) ``` 3. 定义模型和损失函数 ```python # 定义模型 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(nn.functional.relu(self.conv1(x))) x = self.pool(nn.functional.relu(self.conv2(x))) x = x.view(-1, 16 * 5 * 5) x = nn.functional.relu(self.fc1(x)) x = nn.functional.relu(self.fc2(x)) x = self.fc3(x) return x # 定义损失函数 criterion = nn.CrossEntropyLoss() ``` 4. 初始化模型和优化器 ```python # 初始化模型和优化器 model = Net().to(device) if torch.cuda.device_count() > 1: model = nn.DataParallel(model) optimizer = optim.SGD(model.parameters(), lr=learning_rate, momentum=0.9) ``` 5. 训练模型 ```python # 训练模型 for epoch in range(epochs): model.train() train_loss = 0.0 for i, (inputs, labels) in enumerate(train_loader): inputs, labels = inputs.to(device), labels.to(device) optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() train_loss += loss.item() * inputs.size(0) train_loss /= len(train_loader.dataset) print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch+1, train_loss)) ``` 6. 测试模型 ```python # 测试模型 model.eval() correct = 0 total = 0 with torch.no_grad(): for inputs, labels in test_loader: inputs, labels = inputs.to(device), labels.to(device) outputs = model(inputs) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() accuracy = 100 * correct / total print('Accuracy: %.2f%%' % accuracy) ``` 在第四步中,我们使用了 `nn.DataParallel` 函数来将模型在多个 GPU 上并行计算。当有多个 GPU 时,PyTorch 会自动将 batch 拆分到不同的 GPU 上进行计算,然后将结果合并。在使用 `nn.DataParallel` 时,需要将模型包装在 `nn.DataParallel` 中,然后将其移到 GPU 上。如果只有一个 GPU,则不需要使用 `nn.DataParallel`。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值