时间淡化记忆,却无法抹去记忆

原创 2006年05月30日 11:59:00
时间真是奇妙,经过时间的磨练,多年前的伤痛已经慢慢忘却,留下了淡淡的回忆。本来是一个羞涩的人,却永远留在了我的记忆了。
 
大学毕业后,偶有联系,却是说一些不痛不痒的话题。闲来无事时,还能依稀记得他。
 
前些时候,同事戏说在百度上搜一下你的名字,可以看出你的知名度。拿他的名字试试,居然还搜到了他的信息,知道了他目前在南方的一所大学任教,他去年报考了北京的一所大学的博士生。记下了他的报名序号,并关注着他考试的情况。看到他报考的大学要考试了,接着一个多月,出成绩了,特别关注他的成绩,希望他能考一个好成绩,接着继续深造,毕竟在大学里任教学历还是很重要的。
 
后来可以查询成绩了,发现这个学校查询成绩的页面有注入漏洞,使了点小伎俩,查到了他的考试成绩,所有的成绩都是0,我猜他是缺考了。心里有些失落,竟然郁闷了一阵。后来安慰自己,和自己不相干的人,没有必要这样,已经是形同陌路了,只希望他能过好自己的生活,自己也是一样。

动态规划6-背包问题+记忆递归

转自:http://blog.csdn.net/mengzhejin/article/details/37880857 2个问题: 1)背包问题的动态规划解法 2)动态规划的另一种实...
  • ltx06
  • ltx06
  • 2014年12月22日 16:59
  • 692

深入浅出LSTM神经网络 ------从卷积 递归网络 到长短时间记忆模型

深入浅出LSTM神经网络 发表于2015-06-05 20:57| 10188次阅读| 来源http://blog.terminal.com| 2 条评论| 作者Zachary Chas...
  • zkl99999
  • zkl99999
  • 2015年11月10日 12:59
  • 3497

动态规划---01背包与记忆化搜索

动态规划是一种高效的算法。在数学和计算机科学中,是一种将复杂问题的分成多个简单的小问题思想 ----  分而治之。因此我们使用动态规划的时候,原问题必须是重叠的子问题。运用动态规划设计的算法比一般朴素...
  • luomingjun12315
  • luomingjun12315
  • 2016年04月09日 15:00
  • 1529

赋予人工智能记忆的人,带你梳理深度学习核心算法

新智元翻译1 来源:Idsia 作者:Jürgen Schmidhuber 翻译:张巨岩 作者介绍:Jürgen Schmidhuber 被称为是赋予人工智能记忆的人,递归神经网络之父,200...
  • zylxadz
  • zylxadz
  • 2016年01月13日 20:52
  • 1939

理解长短期记忆(LSTM) 神经网络

声明:本文翻译自colah的博客,原文地址:Understanding LSTM NETWORK递归神经网络人类并不是从混沌状态开始他们的思考。就像你读这篇文章时,你是建立在你之前对文字的理解上。你并...
  • u010900574
  • u010900574
  • 2016年07月04日 21:46
  • 5461

俞敏洪老师谈英语单词记忆方法——转

李:俞老师,您好!很高兴今天能采访您。我们都知道词汇是语言的基础,在外语学习和外语考试中,词汇也是重要的突破口,尤其是在GRE考试中,词汇是重头戏。所以外语学习者非常关心单词记忆法的问题。英语单词记忆...
  • Seal203
  • Seal203
  • 2015年08月13日 14:18
  • 1934

实现带记忆功能的AutoCompleteTextView

目的实现:通过之前的textview输入,将其记录下来,并可以作为之后的输入提示来用。 1、实现数据库,将输入的数据存入数据库中 DBhelperpublic class DBhelper ext...
  • sinat_29962405
  • sinat_29962405
  • 2016年04月25日 21:59
  • 392

轻松记忆UML类图各种符号

0. 前言 相信大家在学习UML类图的时候,最大的难度可能来自两个方面: 类图中各种关系的区别;多种关系的符号记忆容易混淆; 本着"Do one thing and do it we...
  • gschen_cn
  • gschen_cn
  • 2016年02月18日 14:40
  • 925

镍氢电池、锂电池与记忆效应

锂电池   优点:  无记忆效应,重量较轻 缺点:  成本高,电流较小,不耐过饱充(与镍氢比较) 锂电池有一次锂电(不可充电)与二次锂电(可充电),二次锂电又分Li-ion 锂离子...
  • tianxuechao
  • tianxuechao
  • 2016年04月21日 13:20
  • 1812

Attention and Memory in Deep Learning and NLP(深度学习和NLP中的注意和记忆机制) 阅读笔记

什么是Attention Mechanisms(注意机制) 神经网络中的注意机制类似人类的视觉注意机制,人类视觉本质上看图片会聚焦在“高清晰度“的区域,同时也会感知周围“低清晰度”的区域,然...
  • aPYXa
  • aPYXa
  • 2016年07月26日 20:19
  • 1774
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:时间淡化记忆,却无法抹去记忆
举报原因:
原因补充:

(最多只允许输入30个字)