英特尔:考虑重大转型,即不再自己生产芯片

导读近日,据外媒报道,美国当地时间周四,英特尔首席执行官鲍勃·斯旺(Bob Swan)花了近一个小时的时间讨论一个曾被视为离经叛道的想法,即不再自己生产芯片。对这家世界上最大的半导体公司来说,以前这是不可想象的。

英特尔:考虑重大转型,即不再自己生产芯片英特尔:考虑重大转型,即不再自己生产芯片

然而如今,在这个价值 4000 亿美元的行业里,外包已经成为常态。50 多年来,英特尔始终将芯片设计与内部生产相结合。直到最近,英特尔甚至还在计划为其他公司大量生产处理器。此前该公司警告称,另一项生产工艺的推出将会延迟。

斯旺在公司电话会议上对分析师表示:“只要我们需要使用别人的工艺技术,我们称之为应急计划,我们就要做好准备。这给了我们更多的选择权和灵活性。所以万一出现流程失误,我们可以尝试些其他东西,而不是全部由自己来承担。”

考恩公司(Cowen&Co.)分析师马特·拉姆齐(Matt Ramsay)认为,不再选择自己生产芯片将代表着半导体行业的巨大转变,也意味着英特尔最大的差异化因素被终结。

设计对半导体性能只能起到这么大的作用,而生产工艺对于确保这些组件可以存储更多数据、更快地处理信息和使用更少能源至关重要。这两者的结合帮助英特尔在几十年的时间里取得了巨大成功。

然而,台积电只专注于生产而把设计交给其他公司,同样取得了成功。它的工厂在产能方面已经超过了英特尔。这帮助了英特尔的竞争对手(如 AMD 等),帮助其在性能上迎头赶上。

英特尔目前最好的技术在业内被称为 10 纳米工艺,原定于 2017 年推出,不过现在才投入批量生产。该公司在周四公布业绩时表示,下一代产品(7 纳米工艺)将推迟一年时间。

这导致英特尔股价在盘后交易中下跌了 10%,并让斯旺在电话会议上不得不应对沮丧的分析师接二连三的提问。他们都询问了制造延迟、其财务后果以及英特尔计划做些什么等。

斯旺的回答有时显得语无伦次,且语焉不详。他一度表示:“不同的是,我们将非常务实地对待这个问题。对于是否以及何时我们应该向外迈出一步,我们仍有选择权,我们可以继续在内部生产,或者内外混合,抑或是将生产完全外包出去。”

英特尔的后备计划意味着,该公司可能会利用台积电来生产芯片。但根据考恩分析师拉姆齐的说法,这并不容易。他说,台积电与英特尔竞争的其他客户可能会反对这家台湾公司优先考虑英特尔的设计。

台积电很可能不愿意为英特尔大量增加新的产能,因为后者以后可能会转回自己的工厂。桑福德·伯恩斯坦公司(Sanford C.Bernstein)分析师斯塔西·拉斯贡(Stacy Rasgon)也表示:“英特尔不能依靠台积电,因为它没有额外产能。”

在推翻了将自己排除在考虑之外的决定后,身为英特尔前首席财务官的斯旺才接任首席执行官一职,他很快将不得不做出一些艰难的决定。他的前任们曾称赞英特尔的工厂,每年花费数十亿美元升级最新的制造技术。将生产外包给其他公司可能意味着英特尔再也无法赶超竞争对手。

斯旺在结束电话会议时试图对这一挑战做出积极的解释。他说,灵活性“并不是软弱的迹象”。更多linux资讯请查看:https://www.linuxprobe.com

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值