平时
Brucechows
一只不等风的笨鸟
展开
-
Docker常用命令记录
1. 背景了解1.Docker概述 ①docker的思想来源于集装箱,刚刚诞生的时候,没有引起行业的注意。 ②2013年将docker开源,越来越多的人发现了docker的优点。Dcoker每个月都更新一个版本, ③2014年4月9日,Docker 1.0发布 ④Docker获得原因,十分的轻巧。在容器技术出来之前,我们都是使用虚拟机技术。虚拟机:安装虚拟机软件,通过该软件可以虚拟出来一台或者多台电脑。笨重 ⑤虚拟机也是属于虚拟化技术,Docker容器技术,也是一种虚拟化技术 ⑥D原创 2022-04-11 19:36:51 · 1098 阅读 · 0 评论 -
Linux常用命令记录
记录Linux以及Mac的一些常用命令。原创 2021-10-10 20:12:26 · 507 阅读 · 0 评论 -
hive环境配置
记录一下hive环境(Mac m1)的配置过程,以防忘记。可能遇到的问题1.安装hadoop1).首先,安装hadoop:brew install Hadoopm1安装brew可以用一下两种命令:/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"如果第一种不行请试下面这种:/bin/zsh -c "$(curl -fsSL https://git原创 2021-08-02 23:04:09 · 574 阅读 · 6 评论 -
对过拟合和欠拟合的理解以及解决办法
前言 不管是在深度学习还是在机器学习中训练的模型存在着过拟合和欠拟合的现象,而且这种现象或多或少可能都是难以避免的。在介绍拟合和欠拟合之前我们先来了解一下其他几个概念。“误差”(偏差):训练得到的模型实际预测输出和样本的真实输出之间的差异叫做误差。方差:描述的是模型实际的预测输出的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散;“泛化误差”:模型在训练集上得到的误差叫做"训练误差",在新的样本或者说测试集上的误差叫做"泛化误差"。1.过拟合和欠拟合在了解了上面的概念之后我们就原创 2020-10-04 13:58:00 · 1070 阅读 · 0 评论 -
对图像中语义信息、高层和底层特征的理解
前言 在计算机视觉中,大家经常会提起图像的语义信息以及图像的高层特征和底层特征。那么到底什么是图像的语义呢,图像的高层特征和底层特征又包含哪些信息的呢?今天我们就来说一说。1.图像的语义信息: 图像的语义分为视觉层、对象层和概念层,视觉层即通常所理解的底层,即颜色、纹理和形状等等,这些特征都被称为底层特征语义;对象层即中间层,通常包含了属性特征等,就是某一对象在某一时刻的状态;概念层是高层,是图像表达出的最接近人类理解的东西。通俗点说,比如一张图上有沙子,蓝天,海水等,视觉层是一块块的区分,对象层原创 2020-10-04 13:57:07 · 38850 阅读 · 10 评论 -
Mathtype的公式转化为CSDN中LaTex
因为刚开始写博客,要输入公式,但是CSDN纯手写的代码公式比较复杂。后来发现可以利用Mathtype可以快速转换成CSDN中MD公式。下面我就来说说怎么进行转换:1.安装Mathtype从百度云下载安装好Mathtype。2.在Mathtype编辑好自己的公式:3.然后在菜单栏中选择Preferences—>cut and copy Preferences…4.选择MathML or Tex,选择Plain Tex,下面两个复选框不要选:5.设置完之后就可选择刚才编辑公式,进行剪切原创 2020-10-04 13:53:30 · 211 阅读 · 0 评论 -
机器学习中max(x)和argmax(x)的区别
max(x)和argmax(x)都是取最大值的意思。但是,两者的意思是不一样的。比如:maxip(i∣j)\mathop {\max }\limits_i p(i|j)imaxp(i∣j)中指的是当i取得特定值时p(i∣j)p(i|j)p(i∣j)取得最大值。而argmaxip(i∣j)\mathop {\arg \max }\limits_i p(i|j)iargmaxp(i∣j)指的是当p(i∣j)p(i|j)p(i∣j)取得最大值时对应i的值。...原创 2020-10-04 13:52:43 · 1885 阅读 · 0 评论 -
NVIDA CUDA显卡算力对照表
来源:https://developer.nvidia.com/cuda-gpus![Quadro显卡计算能力原创 2020-10-04 13:50:55 · 15330 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
原文地址:https://blog.csdn.net/zouxy09/article/details/24971995 机器学习中的范数规则化之L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比转载 2020-10-04 13:49:21 · 685 阅读 · 0 评论