iPhone产品研发背后的故事

Cult of Mac网站的出品人Leander Kahney正在写一本Apple传奇设计师的传记“Jony Ive: The Genius Behind Apple's Greatest Products”,他在Medium上公布了书中关于iPhone产品诞生历程的章节“The Birth of the iPhone”,内容非常详尽,36kr发表了这篇文章的编译

比较重要的细节包括: 采用触摸屏技术的想法最早来自设计师Duncan Kerr在2003年年底的一次演示。(Kerr本人非常低调,网上甚至找不到一张照片。在Business Insider对Ive团队的整体亮相报道中,只能贴上他没什么信息的LinkedIn抓屏。)

Jony Ive团队由此设计和实现了模型035,外观非常接近iPad。但当时并未得到高层的重视,他们的注意力都在iPod上。

等高管们认识到手机可能取代iPod时,他们的第一选择是2005年与摩托罗拉合作,但结果令Jobs大为失望。

Apple终于自己组建了两个团队同时开发手机,项目代号Purple。在2005年初,Apple偷偷收购了手势识别公司FingerWorks,这消息直到一年多后FingerWorks的创始人为Apple申请的专利曝光才为人所知。(36Kr的翻译说创始人和Apple打官司云云完全理解错了。)

一个是Fadell团队基于iPod nano的P1,一个是Jony Ive的P2。P1体验糟糕,而且无法上网,不能运行应用,而且Fadell对多点触摸不认可。他们的项目被终止了。它只在Jobs后来iPhone的发布会上作为笑料出现了一下:

https://d262ilb51hltx0.cloudfront.net/max/800/1*9pNeICGukNIw9tlPFm8NSg.jpeg

P2成为Apple公司的顶级项目,抽调了Fadell负责硬件,Forstall负责新操作系统的开发。

设计上当时有两个方案,分别是Chris Stringer领导的Extrudo和Richard Howarth领导的Sandwich。

https://d262ilb51hltx0.cloudfront.net/max/800/1*4bHMNGzSClDu23Mnu3dGBg.jpeg

更像iPod Mini的Extrudo的早期CAD渲染效果

https://d262ilb51hltx0.cloudfront.net/max/800/1*LGEDzRh2ePvkt_uTxiD1Ag.jpeg

Sandwich早期CAD渲染效果

很奇怪,最开始Ive更重视不那么突出大屏幕的Extrudo,投入了很多精力,但锋利的边缘和天线等工程问题无法解决,它被终止了。Sandwich最终成了iPhone,但它的原型非常臃肿,Apple一面瘦身,一面为这个小小的设备加入了惊人丰富的功能,传奇诞生了。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值