[软件人生]别人对自己的评价应该如何看待(与张勋对话之五)

引言

今天突然看到张恂先生的网站上这样的文字内容:

评青润的《中国软件工程技术应用调查报告》

<script src="/common/page_navigator.js" type="text/javascript"></script>
…………………………
我写这篇评论有这样几个目的:

一、真诚地表达我对慧冬的感谢,把本站评为优秀空间;



对青润的感谢是出于一种基本的礼貌,可是没有想到青润的回复令人错愕:

对张先生新评论三个目的的回答

第一、 我没有说您的是优秀空间,我只是认为您曾经的文字让我受益匪浅,至于是不是优秀空间,可能要让大众来评价。我只能说,我认为您的不少文字是很有价值也很有水平的。相信张先生不会因为这个说我如何如何吧,呵呵。

...

难道百美群星、什么大大大版主,都是这幅样子的吗?

是的,青润,我要问你:你连自己做过的事、写过的字都可以否认, 那么你的 Credibility 和 Integrity 在哪里?如果不懂这两个词,请查《金山词霸》。注意,这是两个大写的词。你已经是个大人了,说不定已经成家,而且还有了自己的孩子,学会做事之前要先学会做人,这么简单的道理不用我再教给你吧。这场技术辩论,还用比吗?不用比了。事实上,你已经输了,而且输得很惨。建议你把我的这段文字刻成光盘,以资教育你的后代子孙之用。

关于青润对张恂的崇拜问题

……………………
上面为引用内容,到这里我才发现,张恂先生很希望别人评价他是优秀的,而据怕别人说他的优秀有问题。

对话

我的blog上写的优秀个人空间看来出了些问题,我的本意是优秀的个人空间,而不是优秀个人的空间。难道说优秀的个人空间就代表空间里面的所有东西都是优秀的么?这个问题我觉得是不需要回答的。因为任何人都知道,一个空间里面的必然有好有坏,不可能全部都是优秀的,否则,那只能是堆砌,而不是真实个性的体现。
当然,我不否认张恂先生本人的优秀,这一点至少到目前我是一直都承认的,但是,优秀不代表一个人不犯错误,或者一个人在所有的地方都优秀。另外,明天我是否还会承认你的优秀,就只能看你本人的能力和表现出来的水平了,否则,我只能承认你过去的优秀,而不是目前的优秀。
比如说,我的前任老板,那是个国际知名学者,人脸识别领域的造诣很深厚,我到现在都佩服他做学问的本事和经历,但是,我不佩服他其他的,我也不会说他不优秀,虽然我已经从他那里离开快一年了,当别人让我评价他的时候,我仍然会说:他的技术的确很好,在国内乃至国际上都少有对手的。但是,他的错误也不少。
我相信我这样的评价才是客观的。
张恂先生一张嘴就说别人崇拜你,这一点似乎违背了中国传统习惯里的谦虚与戒骄戒躁的要求,似乎偏离了很多中国传统文人应该有的优良品德。
我说的崇拜,如果没有记错,应该是200年您的那一篇文章,的确,到现在我都很佩服您的那一篇文章,但是,除了那一篇文章以外,您让我佩服的地方的确没有了,这能算得上崇拜么?要知道人对一个人的崇拜都是有时间性的,不可能一篇文章就让别人崇拜一辈子,一个真正优秀的人应该能够始终做出优秀的事情或者写出优秀的文字来让别人崇拜或者佩服,而不是把别人的崇拜和佩服写到自己的网站上让全天下的人来看,以此获得全天下人的崇拜和佩服。
而且,随着个人阅历的提升和知识经验的积累,一个人对另外一个人或者事物的看法是会发生变化的,如果要想这种变化不走向另外一个反面,那么,对于一个技术人员来说,要做的不是强调过去,不是强调已经发生的历史,而是应该面向未来,通过项目的开发和经验的积累来提高自己,使得自己进入更高的层次或者领域。
与其纠缠于别人是否崇拜你这几个字,是不是有点吹毛求疵,或者大失风度呀?

相关文字连接

[软件工程]关于调查报告的响应和看到张恂先生的批评: http://blog.csdn.net/qingrun/archive/2007/04/07/1555182.aspx
[软件工程]关于调查报告问题的第二次响应张恂之文:http://blog.csdn.net/qingrun/archive/2007/04/11/1559853.aspx
[全程建模]响应张恂之《青润,你的胡扯还不够吗?》第三篇:http://blog.csdn.net/qingrun/archive/2007/04/12/1562210.aspx
[全程建模]响应张恂之《青润的《中国软件工程应用技术调查报告》》第四篇——迭代与交付周期:http://blog.csdn.net/qingrun/archive/2007/05/14/1607628.aspx
 
btw:
张恂先生不用取图片来作证,可以放心,至少一两年内,我不会把你的网站链接取消掉的,这都是因为2002年您的那篇文章。
我的文字大部分都是随手而成,不会刻意做修改或者过两天看看再做发布。因此我承认有些时候我的文字中会出现错误或者偏差,这一点,相信大家都能理解。
 
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

青润

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值