Transformer
文章平均质量分 55
多恩Stone
聚焦时尚设计领域的高可用 AIGC,现于香港理工-人工智能设计研究所搬砖
展开
-
CLIP 的 text encoder 能输入多少个单词?
设置为 77 表示模型的输入长度限制为 77 个 token。77 个 token 不等同于 77 个单词,因为一个单词可能会被拆分成多个 token。实际的单词数量会少于 77 个,具体取决于句子的复杂度和分词方式。通常情况下,77 个 token 可以容纳大约 70 个左右的单词,这取决于句子的内容和复杂度。为了在实际应用中得到精确的单词数量与 token 数量的关系,可以对输入文本进行 tokenization 并观察其输出。通过这种方式,可以更好地理解模型的输入限制。原创 2024-05-22 19:49:13 · 488 阅读 · 0 评论 -
【保姆级教程附代码】Pytorch (.pth) 到 TensorRT (.plan) 模型转化全流程
那么恭喜你的 .onnx 大概率是可以转化到 .plan 的!当然这里也有些坑,比如明明是显存不够错误,但日志里完全没提 oom,而是说节点问题。。。原创 2024-04-03 21:23:43 · 909 阅读 · 0 评论 -
ubuntu 中用 conda install xformers 报错包不匹配【Could not solve for environment specs The following package】
复现论文时,在 ubuntu 中使用 conda install 如下 bash 命令行就会报错原创 2024-01-15 19:39:18 · 1581 阅读 · 0 评论 -
.pt文件无法打开或乱码?如何查看.pt文件的具体内容?
复现论文 GTM-Transformer 过程中的数据集直接用 vscode 打开的效果没法看import torch # Load category and color encodingscat_dict = torch.load('C:/自己替换/category_labels.pt')for k, v in cat_dict.items(): # k 参数名 v 对应参数值 print(k, v)运行结果图:参考博客:https://blog.csdn..原创 2022-04-07 17:52:40 · 16920 阅读 · 3 评论