python
WUST_ZZY
每天一道算法题,每晚掉亿根头发。
展开
-
如何解决服务器显卡只在第一块运行的问题?
如何解决显卡只在第一块运行原创 2022-12-02 15:53:20 · 721 阅读 · 0 评论 -
python导入不同包下的另一个文件
首次接触python,与java不同的是不能够跨包导入方法,网上搜索了很久,也算是摸索出来了。如果我要尝试导入pyterrier_colbert下的test1.py到当前的test文件里面我需要先import syssys.path.append(‘…/pyterrier_colbert/’)这个导入要自己分析自己的文件结构,我的是这样的一个结构,看到网上的解释说是python只顾当前的环境变量换个包就变了,当然我也不是很懂原理test 调用 test1 的Test()类,然后运行,得到结果原创 2022-05-24 16:47:17 · 470 阅读 · 0 评论 -
hanlp 包安装不上
使用豆瓣源pip install hanlp -i https://pypi.douban.com/simple/原创 2022-04-18 20:47:07 · 670 阅读 · 0 评论 -
Python人工智能NLP1.2小结
torch.Tensor 拒用 Requires_grad函数,用来规定某个函数是否有逆推梯度的反向传播。使用detach()命令,可以将某个函数从梯度计算图中拿下来,也意味着在后面的计算中不考虑这个函数的梯度优化。with torch.no_grad(),使用代码块来进行终止对计算图的回溯,一般用于验证集合。...原创 2022-04-14 09:48:28 · 1244 阅读 · 0 评论 -
module ‘tensorflow‘ has no attribute ‘flag‘
今天跑BERT发现这个问题跑不了,理由是因为原生态的bert用的是1.0的tansformer,我们pip安装的都是2.0的,所以会出问题在run_classifier.py 中, 在引入import transfomer as tf 后面加以tf = tf.compat.v1就行了...原创 2022-04-13 15:01:23 · 1546 阅读 · 0 评论 -
如何在python中删除字符并缩进?
python的string类型是不可以变的,所以没办法直接删除字符,为此,我们牺牲一定空间,创建新的列表来装入String中原有的字符进行操作。string = “公众号:土堆碎念”string.removeprefix()list_str = list(string)list_str.pop(1)list_str = ‘’.join(list_str)print(list_str)...原创 2022-03-27 10:19:18 · 1000 阅读 · 0 评论 -
python实现非线性激活层以及实战
非线性激活import torchimport torchvisionfrom torch import nnfrom torch.nn import ReLUinput = torch.tensor([[1, -0.5], [-1, 3]])output = torch.reshape(input,(-1, 1, 2, 2))print(output.shape)class Tudui(nn.Module): def __init__原创 2022-03-19 20:59:32 · 1562 阅读 · 0 评论 -
卷积层和池化层代码
```python在这里插入代码片import torchimport numpy as npimport torchvisionfrom torch.utils.data import DataLoaderfrom torch import nnfrom torch.nn import Conv2dfrom torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10("./data.原创 2022-03-17 18:48:01 · 2543 阅读 · 0 评论 -
leecode 704.二分查找 python
class Solution(object):def search(self, nums, target): """ :type nums: List[int] :type target: int :rtype: int """ for i in range(len(nums)): if nums[i] == target: return i break if i+1 == l原创 2022-03-08 10:23:00 · 336 阅读 · 0 评论