5年记(1)

2 012是一个值得纪念的年份,这一年我们经历了世界末日,但活了下来。而我,换工作,结婚,买房子,发生了很多事情。

    2013年毕业就要满5年了,有时想想过往仿佛昨日。
从我的工作说起吧!
    2008年,我从玉泉毕业了,加入了杭州一家小型的IC设计公司,作为应用工程师。工作没有想象中的那么好,没有什么培训,也没有什么制度,唯一好的就是同事的关系很像学校。加入创业公司,主要的原因是觉得能够干一番事情。我要感谢这家公司,在这里我学会了画PCB,为客户设计方案,为客户写手册应用笔记,总之涉猎了很多东西,但都不是太精通。总结来说,最多的成长在于知道了要做成一件事情最重要就是要身体力行,空谈无意
    这家公司应该算是国内最早做智能电网计量SOC芯片的公司之一。CTO是从国外回来的,当时还是浙大和清华的教授。我记得当年是7月,公司在创业大厦有一间办公室,我也能算是前20号员工了。到了公司,事情不多,唯一的事情就是看公司芯片的手册,芯片是8051core+dsp+ADC的SOC。当时没啥经验,一看手册100多页,都是寄存器,看的犯晕。
    渐渐的开始知道了一些,公司的芯片用在数字化电表上,当时智能电网的概念在国内还不响亮,市场上的电表要不就是比较古老的计度器表,要不就是7755做的简单数字表。我在公司的前半年,当时公司的产品还处在研发阶段,对市场还没有太多的概念,渐渐的我发现公司的市场一直不好。我记得当时的芯片是tiger系列,功能定义上还是有一定的超前性的,但市场上当时对这种芯片的需求还不强烈,而且芯片的计量精度和ESD性能都存在一定问题。所以当时就是销售们找公司去试样,我们这些工程师,就不断的修改PCB,看能不能改善性能。这个有个一很重要的点,公司没有把握住,对巴西的一个项目因为错估了巴西人对产品的要求,导致失败。
     09年,市场上有了一个大的机遇,国家电网准备做智能电网改造,7755之类的芯片已经无法满足需要了。当时公司上下都很兴奋,觉得马上芯片马上就能大卖了,投入更多的精力做全SOC的芯片,提高精度和ESD性能。我当时开始出差了,为客户设计芯片的解决方案,说服客户去使用我们的产品,像威盛,三星这些大厂都去做过design-in。
    出差的日子很潇洒,下车去客户那边干活,然后开宾馆,吃好吃的。这里要多感谢我们的代理商的朋友,总是很照顾我。09年一年,都很忙,但没有什么成果。公司当时好像一年没卖出什么多少芯片,还是国外市场。我渐渐发现公司的产品策略有一定的问题,市场上做这一块芯片的公司也开始多起来了。比如复旦微电子,锐能威就是那个时候开始涉足这个市场的。这些公司都是做单纯的计量芯片或是具备RTC功能的低端MCU的。公司当时还是用32Kflash的51CORE SOC去打这个市场。
   10年是大变局,国网电表开始大规模招标,锐能威拔得头筹。他们的产品就是一个纯粹的计量芯片,但是相比7755多了功率,电流,电压有效值,就是这一点眼光,使得8209成了市场上唯一可以满足国家电网要求的计量芯片。我们的公司的芯片因为是SOC不能被主流大厂接收,当年惨败。
   08-10年,我负责过方案开发,芯片测试,芯片软件IDE和调试工具开发很多方面,感触很多。最主要的就是,公司的产品不够专业,乔布斯有句话要让你的客户从拿到产品包装的第一刻就感觉到你的专业。当时公司很多东西都不统一,从发给客户的PCB的LOGO到装给客户手册和资料的文档袋,都千奇百怪。

  10年初,我开始由应用工程师这个角色转变到产品经理。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值