求“评”若渴,各位帮帮忙!

求“评”若渴,各位帮帮忙!

我在编程之余,写过一本《凌波微步》,在《程序员》、《CSDN开发高手》、《中华读书报》等报刊上发表过几篇文章。这些文字质量不高,无法令我满意。但我最苦恼的是,没有多少渠道可以得到读者的反馈信息,以便改进我的文章。现在这个BLOG的人气还可以,我想在这里恳求每一位读过我的文章的朋友,在下面的回复栏填上您的评价意见。指摘也好,建议也罢,我都绝不介意。先谢过了!

这篇BLOG的回复,我既不会插话,也不会删改。如果有哪位朋友愿意和我直接讨论,请用email联系<wangyg@contextfree.net>。为了给大家提个头,我把网上找到的一些相关文字按时间顺序附在后面。

http://www.china-pub.com/的网友对《凌波微步》一书的评论(这里褒奖的意见居多,很可能是网站编辑做过有倾向性的删改):

读者:pilgrim99 最新讨论:2003-4-12 7:14:10
好书,行文生动流程,没有国外软件过程书籍的艰深晦涩。还有很多实际过程中的经验之谈。远非教科书所能解决的问题?
    Good! - sdsdp - <2003-4-12 7>
    对 - lodestar - <2002-12-7 14>

读者:sybex 最新讨论:2003-4-14 16:34:57
的确是一本好书,买了!
    同感 - xuyingying - <2003-4-14 16>
    我也买了一本,正在看,的确不错。 - liu7290 - <2003-4-4 10>

读者:netcasper 最新讨论:2003-7-27 11:28:31
本书涉及内容较多,略感松散,每个主题浅尝则止,有点意犹未尽,让人感觉不太过瘾。
不过瑕不掩瑜,五星!
BTW:如果作者写本自传一定很畅销!

读者:kenpeila 最新讨论:2003-12-18 17:03:16

我看了十几章了,感觉一般。主要是行文太罗嗦,有时候感觉为了凑篇幅。每章讨论的问题很简单也不深入,只是个人的简单开发经验总结。可能作者并没有时间把书写薄吧,毕竟删繁就简三秋树的功夫不是一日之功。另外感觉作者项目开发的经验很丰富。
    不错 - chengwenjin - <2003-12-18 17>

读者:winebag 最新讨论:2003-12-19 10:56:59    
看了一下,感觉不错

yanhui's Blog上贴的一篇关于《程序员》第4期上我的文章的评论及其回复(感谢闫辉。这篇评论好像出自《程序员》的另一位作者,但他的发言引出了不少有价值的批评意见):

读者对王咏刚的高度评价!

会调程序的福尔摩斯

知道福尔摩斯吧!即便无缘拜读柯南·道尔的大作,如果你敢说自己没听说过福尔摩斯,周围人一定会把鄙夷的目光赏赐给你。
那你知道福尔摩斯是个程序高手吗?
在看了新一期《程序员》杂志的王咏刚先生所写的《打印机疑案》之前,我也不知道。
在这篇文章重,福尔摩斯先生重回人间,这次他又掌握程序技术,以高超的调试技巧,帮人侦破了打印机疑案。
这是我头一次看到以侦探小说的形式写出来的技术文章。早就听说,国外有高手曾经有如此惊人之举,如今看到国人的一篇另类技术文章,着实让我欣喜了好长时间。
对我来说,单凭这一篇文章,就已经值回整本《程序员》的价值了。
在《技术的文字》中,我曾提到,许多程序员们受了太多的文字折磨。以致于面对优美的文字,脑子里首先闪现的是“废话太多”。如果把王先生的这篇文章,放到他们面前,恐怕得到的评价不会好到哪去。
以个人喜好来说,我非常喜欢这种“废话太多”的文章。
注意王先生的文字有一段时间了。王先生的文字一向是幽默而富有内涵,阅读的过程很是享受,常常在会心一笑之际,体会到一些软件开发的基本道理。
最初认识王先生是他所著的那本《凌波微步——软件开发警戒案例集》。一本关于计算机技术的书,敢命名为“凌波微步”,本身就是一种不凡。
让我下定购买决心的是他的那篇自序《青年程序员的肖像》,我喜欢他那种不缊不火的幽默。
《凌波微步》对我来说,短了些,意犹未尽。
2003年7月开始在《程序员》上连载的“凌波微步II”算是对这种遗憾的一种弥补。现在“凌波微步II”已经成了我每期《程序员》的必读,虽然碍于自己眼界,无法完全理解每一篇的精髓。
在我看来,王先生的文字无疑于传统计算机技术写作的一种挑战。为什么我们还要忍受那些令人作呕的文字呢?
发表时间: 2004年04月14日 9:34 AM

Feedback
# 晕 2004-04-14 5:14 PM faint
恰恰相反, 废话太多, 实质性的东西几乎没有

# 回复:读者对王咏刚的高度评价! 2004-04-14 10:29 PM SE faint
sorry to hear about that, but it's true.
the simple program is graceful, i like simpleness

# 风格独特是独特 2004-04-15 3:41 PM 晕倒
内容用什么样的风格包装出来,各有各的胜场。
什么叫“令人作呕的文字”吗?王的风格独特是事实,学一些外刊的科普类作品的风格。而且这样的风格是不是所有的内容都适合包装是问题

# 回复:读者对王咏刚的高度评价! 2004-04-17 11:04 AM boll
恰恰相反,我觉得Mr.Wang 的文章,非常不好!!!
梦魇的文章,说话的风格,无疑是我认为最值得尊重的,
我是说在csdn这个群体中。
蒋涛无疑也是明白人,可惜很少文章。

# 回复:读者对王咏刚的高度评价! 2004-04-17 11:08 AM boll
《打印机疑案》不怎么样,很罗嗦!
还有在csdn开发高手上的,很差!
除了那篇C++风格的文章,还可以,
我总觉得wang是不是老在骗稿费?
我是从《程序员》试刊1,就开始看的读者

# 回复:读者对王咏刚的高度评价! 2004-04-19 10:35 AM yes
agreed with boll

# 回复:读者对王咏刚的高度评价! 2004-04-19 11:03 PM Justin Shen
《打印机疑案》那样的风格偶尔一试也无妨,一直那样就不好了,毕竟那样的风格虽有趣,但知识密度太低了。
P.S: 闫辉不更新 博客堂 里的blog了吗?

# 回复:读者对王咏刚的高度评价! 2004-04-27 4:06 PM 独孤小邪 众里寻她千百度,,,很喜欢这种文章,早就厌烦了枯燥死板念经似的教条,,能写出这种文章要有很广的知识面,更重要的是写的是计算机知识,但表达了更广阔的思想。那种科学的思维方式。文笔也不错。读此文章是种享受,,,

# 回复:读者对王咏刚的高度评价! 2004-05-26 2:03 PM Killvin
老王的技术含量是不容置疑的,可是如果每一篇文章都局限于用调侃的方式陈述,未免有点窜味的感觉,就像<<程序员>>杂志总是把他的文章罗列到"幽默"栏目一样,我建议老王还是尽量的学习一下李维的写作风格,至少他写的文章不会让你有不再想看下去的想法。
另外,对于老王的文章我想很多人和我一样从关注,欣赏到最后的"厌恶"(只是对叙述的方式上),有点感觉像是为了应付差事而匆匆写的一些东西,没有了特色!

CSDN新闻评论:关于《程序员》第5期上我的文章(这里批评我的两位朋友说的应该是心里话):

tudou614:凌波微步II-天下文章
    P64 写好文档是几乎所有技术人员的软肋。王咏刚妙法心得,告诉你好文档的三段论。
    王永刚同志,你能不能在《CSDN开发高手》上少点搞笑文章,你的那些幽默还不如“喜满你”网站上任何的一则
    你的好东西往《CSDN开发高手》整点贝
    http://www.contextfree.net/wangyg/huffman/
    (2004.05.03)
tudou614:老是搞点不疼不痒的东东搞两个稿费也忒.......
    ★ 技术简史
    2003年12月:BASIC四十年
    2003年12月:垃圾收集趣史
    2003年 9月:C++ 语言风格流变史
    2003年 8月:数据压缩技术简史
    (2004.05.03)    
tudou614:
    侯捷够OPEN,你能不能向人家学习一二,你的《凌波微步》我是不会买,更是不会看的,不外乎是些故弄玄虚的东东,不如〈WINDOWS程序设计〉,不如〈windows核心编程〉,不如〈深入浅出MFC〉,哦,忘了,你的水平如何能和前面几位相提并论~~~~~~~~~~~!!!!
    CSDN的编辑,你想删就删吧,反正你们是容不得半点的批评意见的~~~~~~~~~~~~~~~
    (2004.05.03)
tudou614:
    http://contextfree.net/wangyg/msgl/mskf.html内容简介
    果如上面所言,不禁想起《大史记》中列宁的话:“这是什么破书,哦,《凌波微步》,这种破书只能用来垫脚!!!“呵呵,以彼之道还施彼身(王式幽默)”
    (2004.05.03)
BigBadEgg:
    虽然土豆兄的评论废话是多了点,但是只有看了土豆兄的评论,才觉得看了这个帖子没白看。:-)
    (2004.05.04)
otcdxn:
    那个王咏刚的确比较罗嗦,烦!!???
    (2004.05.07)
eastliangliang:
    菜鸟更需要指导。凌波微步,很不错。
    (2004.05.13)

CSDN新闻评论:关于《程序员》第6期上我的文章(这还是上面那位朋友,他的立场比较鲜明):

otcdxn:
    昨天买了,这一期还行,只是那个什么王咏刚的“凌波微步“要连载到什么时候? 真是烦得受不了,一点点东西被他唧唧歪歪的罗嗦了四五页,真是受不了! 拜托转告他以后不要卖弄文才,浪费版面了.
    (2004.06.06)

转载于:https://www.cnblogs.com/xiaomaohai/archive/2004/06/07/6157281.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
【7层】6900平米左右一字型框架办公楼毕业设计(建筑结构图、计算书) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值