- 博客(10)
- 资源 (10)
- 收藏
- 关注
原创 人机对话系统为什么这么难?
人与人之间的交流,主要依靠自然语言。人工智能时代,人们自然希望与机器之间的交流,也能通过自然语言进行。然而实践表明,这个目标技术难点很多,问题比想象的复杂多了。这两年,市场上出现很多对话机器人、对话音箱、语音助理之类的产品,大部分表现不佳。经常听到老百姓用“人工智障”来形容这些表现较差的机器人产品。为什么人类司空见惯的自然语言交流看起来那么简单,用于人机交互就那么困难呢?下面我们具体讨论一下。
2020-03-31 19:05:01 2380
原创 win10 桌面(Windows 资源管理器)卡死的根本解决办法
自从换上 Win10,桌面就经常卡死,网上很多文章都建议在任务管理器里面重启 “Windows 资源管理器”,但只不是根本办法,没办法上网查找了一大通,发现一个可能根本解决的办法,记下来,试一试,希望有效。在桌面上点击鼠标右键,选择“个性化”,然后按照下图设置一下:希望这个办法能根除桌面卡死的问题!...
2020-03-25 12:40:53 54737 11
原创 快速了解 CNN 经典模型
快速浏览一下主流的CNN网络模型的特点,包括:LeNet、AlexNet、ZFNet、GoogLeNet、VggNet、ResNet 等。
2020-03-19 17:30:50 634
原创 从 one-hot 到 softmax,再到交叉熵,技术一脉相承
one-hot 编码催生了 softmax,然而 softmax 的输出格式造成传统基于距离度量的损失函数学习效率很低,于是交叉熵技术横空出世。本文从头梳理这些技术的来龙去脉。
2020-03-18 11:07:15 2676
原创 一个例子说明交叉熵损失函数的重要价值——逻辑回归函数的通俗解释
说一千道一万,交叉熵损失函数有什么价值?答,可以无限增加“分类失误”的惩罚力度,加快模型训练速度。本文通过一个简单的例子,直观解释其工作机制。
2020-03-17 16:01:09 539
原创 你知道吗,最小二乘法不宜用于分类模型的损失函数?
损失函数是神经网络模型构建的关键一步。基于模型预测结果和训练样本之间的距离,构建损失函数,是一个非常容易理解的方法。但是,用于分类模型的训练中,容易导致效率低下的问题。具体原因你知道吗?您知道如何避免出现类似问题吗?
2020-03-17 14:57:43 934
原创 一个简单例子说明白softmax 逻辑回归与 one-hot 编码的关系
softmax变换有什么最用?和 onehot 编码之间是什么关系?
2020-03-16 18:21:18 4372 2
原创 几分钟看懂神经网络原理
1. 线性分类器别嫌我罗嗦,从这里开始看你不会后悔的。下面直线把平面分成两部分,平面上的点被分为两类:w1x1+w2x2+w0=0(1)w_1x_1+w_2x_2 +w_0= 0\tag1w1x1+w2x2+w0=0(1)显然,给定坐标 (x1,x2)(x_1, x_2)(x1,x2) 我们可以根据 w1x1+w2x2+w0w_1x_1+w_2x_2 +w_0w1x1...
2020-03-15 20:23:15 649
用ATL建立轻量级的COM对象
2010-08-04
ATL 揭秘之“对象创建”篇
2010-08-04
用ATL 建立轻量级的COM 对象
2010-08-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人