算法
文章平均质量分 69
蓑雨春归
这个作者很懒,什么都没留下…
展开
-
Chatgpt的介绍-内容由chatgpt生成
Chatgpt 自己介绍自己原创 2023-02-05 15:59:50 · 7262 阅读 · 0 评论 -
MobilenetV2 在ARM CPU上的MNN部署
MobilenetV2 在ARM CPU上的MNN部署原创 2022-12-30 10:40:48 · 1052 阅读 · 0 评论 -
Stable Diffusion 图像生成测试
多模态图片生成原创 2022-09-16 13:16:14 · 2008 阅读 · 0 评论 -
Python实现自定义队列
项目中需要读取一个pickle数据文件,pickle文件存储的是按行保存的文本,需要调用编码模型分别对每一条文本进行编码,然后使用numpy数组保存编码后的向量。由于模型每次只能输入一定batch size大小的数据,所以需要对数据继续分割后再输入模型编码embedding,可以直接加载整个文件,通过batch size来分割整个文件数组。但是如果文件很大,这样的加载方式可能会导致内存溢出。因此考虑对文件进行单行读取,使用一个队列来接受读取的数据,当读取的行数等于batch size时,就将这个批次的数据送原创 2021-03-31 14:22:07 · 864 阅读 · 2 评论 -
使用ONNX将Pytorch转为Tensorflow的使用尝试
使用ONNX将Pytorch转为Tensorflow参考官方教程将Pytorch通过ONNX转为tensorflow。from onnx_test import resolutionimport numpy as npimport osfrom torch import nnimport torch.utils.model_zoo as model_zooimport torch.onnxfrom onnx_tf.backend import prepareimport onnx原创 2021-03-07 20:14:07 · 1794 阅读 · 5 评论 -
强化学习-Q-learning FrozenLake-V0 实现
DQN算法是QLearning算法的延伸,在大多数实际场景中,Q值表的状态空间会很大,构建Q值表的方式就不太行得通,因此通过引入神经网络来学习拟合状态空间,解决状态空间过大而不方便维护更新Q值表的问题。首先定义一个Agent类,sample函数就是使用epsilon-greedy的采样方法,predict则是根据当前的观察值来预测输出的动作,learn就是通过输入当前的观察值obs,当前的动作action,奖励reward以及下一个时刻的观察值next_obs来更新Q值表。代码:class Q原创 2020-06-26 18:33:12 · 4419 阅读 · 1 评论 -
LeetCode 62. Unique Paths 机器人走格子-动态规划记录
题目为机器人从左上角走到右下角,不重复的路径有多少条。使用动态规划求解,分析如下:设这个格子的大小为m*n,终点位置(右下角finish)的坐标final = (m-1,n-1)。而final的上一步只有两种可能,即从左边的(m-2,n-1)向右走一步,或者从上边的(m-1,n-2)向下走一步,而且这两种方式不可能重复,只要把到达(m-2,n-1)和(m-1,n-2)的路径加起...原创 2020-05-03 23:07:15 · 753 阅读 · 0 评论 -
Coin Change(硬币最少组合) python的动态规划实现记录
题目为给定不同面值的n种硬币,面值加起来等于一个特定的数m,求最少需要多少枚硬币实现。这个问题如果使用暴力求解,需要穷举所有可以加起来等m的组合,时间复杂度为O(m^n)。def coin_27_plus_1(x): coins = [2,5,7] len_s = [x//coin for coin in coins] sum = 0 times = 0...原创 2020-05-02 20:52:43 · 1129 阅读 · 0 评论