博主给初学者的几个编程建议 silvercell

编程给初学者的几个建议(建议时不时自查)

Author: silvercell && Web-develper && Full-Stack-Player

本人是来给专栏打广告的, 如果有对广告过敏的, Chrome浏览器- ctrl+w。 谢谢。

夜西风凋碧树。独上高楼,望尽天涯路。

  1. 别纠结语言, 选择一个自己耕的领域。
    人最贪心,想什么都学会了。这本身不是坏事。这叫勤奋学习没有错。但是关联到一个问题就是学的今天学了明天忘了,到用的时候真的就用不出来。这个问题的原因并不是没去思考如何运用。 试问当这个知识是你未知领域的,你将如何感同身受的运用? 唯一的合理解释就是,你学习的不够深刻。学到深刻,一遇见脑子就能反映出可能要用什么知识,这就是深刻的意义。 关于深刻的问题,我会在我的专栏中进行深刻的解读。 所谓吃苦不是自己找罪受,是在解决问题中花费了时间就像练习打字一样,刚开始手指的位置放在那里,看别人打字盲打贼快,自己练习的挺苦。 但是,当打字速度快的时候,一切就是那么自然。吃苦只是吃那么一个两个星期,其他的时候给你带来的感受就像喝水一样舒服。

  2. 关于工作问题
    该担心的不是你的工作,而是你的技术。只要市场有需求,那么就有你的工作。 就算你用的delphi, 现在已经很少用了。假如你写了2年的code, 那你换个其他语言吃饭不是也轻飘飘么? 所谓触类旁通。 想触类旁通,前提是有个 , 有个本事。即,入了编程的门。 写几句查询那不叫入门, 入门是你抛弃了别人给你的东西,你可以自己解决问题这个才是开始入门了。 工作是不需要你担心的,你担心的该是你能解决什么问题。 工作是解决一些问题,付给你的薪水。 你能解决的问题,决定了你的价值

  3. 关于进步问题
    没有一个我遇见过的nb选手是不懂底层语言的, 我刚开始的一两年中去业余撸了很久的c,开发的比如qt, mfc 的小零件,实际没什么用。 那顶多算个练习c语言和看接口文档的练习。 甚至根本没必要去撸qt. 那不叫会c。 只是能用c去开发软件。这是个大弯路。前两年的时间可不是干这个的。 前2年 不是你去看底层的时间。 是你去根据自己本身选择语言深挖的时间。 根据自己选择的语言去拓展,去深挖,去理解很多深层技术的使用场景。 只有你熟悉这些技术的用法,才能去真正的自己去思考。去问为什么,然后去深层次挖掘技术。 我见过很多人面试,给我讲 vuejs 原理, 头头是道,直接问个很简单的细节瞬间懵逼。 这不是你自己学会的,你也绝对用不出来。大部分人,如果普通的工作,没有个两年的思考。 基本上独立去看开源项目自己分析,写出思考。很困难。很多人会的原因是学这个那个的视频,导致了缺乏了思考的时间。 现在源码很多都使用很多设计模式,加上代码拆分都不是那么容易看懂。除非你工作划水,或者业余时间非常勤奋,否则基本是自欺欺人。 这不代表我们就不学习了。 当然要学,如何学,大家可以自己考量。 打个广告,关注我的专栏慢慢积累。 借此感谢我曾经的各位技术主管,给我在前进的道路上指明方法。 方向很重要。


衣带渐宽终不悔,为伊消得人憔悴

  1. 下一步学什么
    从点,切入。 然后拓展知识面,最后才说深入。 相信各位看到我的文字,应该或是感同身受,或是有所启迪。我自己是打算总结一下,将进步的路径分出来。 我可以的是,php, node … 我准备发力,开始更新博客,开启付费专栏,既对自己的学习是总结,同样也是哈哈哈哈赚个烟钱。准备从, php ->js ->python -> Go -> C -> c++ 这个顺序。 ruby, delphi … 就不来了,毕竟,有点国内小众。(主要是工作职位少)
    不过讲真 , 之前php没有laravel, ruby on rails 真香。 真的香。laravel 不就是rails翻版么,缅怀rails.哈哈哈
    入门的教程,大家随便说。 但是目前web只打算深挖 node , php, 开发应用的化多挖 python 。

  2. 我为什么写博客专栏?
    总结 + 赚烟钱


众里寻他千百度,蓦然回首,那人却在,灯火阑珊处

  1. 什么风格?
    分核心一两句理解,然后给个解释。 如何能读懂,不要去看长篇大论的解释。
    1. 列出要点, 给出思考作业
    2. 独立解决问题
    3. 来个qq/微信群,大家一起讨论,毕竟,如果我没解释清楚我去更新文章,还是要靠先学帮后学,或者独立解决。尽量我不插手。尤其是环境配置!!! 看报错 , 谢谢!!! 把关键的错误发到群里,要不然别人怎么帮你看? 收到帮助时候要说谢谢!!! 没有人义务帮你。
    4. 常怀感恩之心, 一起进步。

关于退csdn后回归
退csdn
  • 之前博客被注入成乱码,一气之下再见了
  • 博客发布麻烦,好多文章存本地的 markdown
  • 以后我备份两份, 一份抽屉,一份csdn, 有空来个git仓库? gitbook ? . — So Beautiful~
回归csdn
  • 技术变迁很快,python, Go , nodejs, php 的版本很多都已经更新了。
  • 工作里用了很久了,来回来去折腾,穷人最不缺的就是时间。 别人靠睡觉养生,我靠时间进步。
  • 恰巧需要自己总结和提升一波
  • 顺带开设付费专栏, 将这几年彻夜奋战的’坑’卖个好价钱
  • 补偿一下这几年掉的头发和抽的中南海.8 香烟
最后
  1. 我不相信无缘无故的好,愿本人所有专栏能给你物有所值。让你进步飞快。
  2. 进步需要一点点有效的进步。祝大家技术进步,愉快加薪。
  3. 不知道有没有漏什么想吐的肺腑, 想到了随时补。
最后鸣谢csdn, https://blog.csdn.net/平台,托管免费为我托管博客和允许我开设付费专栏, 知识有价,友谊无价,欢迎加入 silvercell 的圈子。 一起成长和进步。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

银色种子

打赏 >100 请留言,并私信

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值