Google 锁死 SDK,能阻止 Android 碎片化吗?

很多人的脑海中都会认为Google的Android系统是非常开放的,但近期随着Google在Android SDK中推出的一项新条款,今后对于开发者、OEM厂商以及用户来说都不再那么自由和免费了。在此之前,自2009年以来这项许可协议条款从来没有更新过。

2012年11月,最新加入的条款如下:3.4 您同意,您将不会做任何可能会导致Android碎片化的行动,包括但不仅限于分发、参与制作,或任何其他利用到本SDK开发包的形式。

总之,谷歌立下这样的条款,让整个事情变得很玄乎,你将不能在对Android系统做许多个性化的定制。开放源码软件的基本定理之一就是,你可以在 任何时候创建自己的版本分支。正式因为Android系统的源代码是开放的,所以Amazon才会自己把源代码拿来搞一搞,弄出了Kindle Fire设备的系统。甚至就连CyanogenMod也都能通过众投这种近乎非法集资的形式圈来投资,进而开发出了Ouya游戏主机。不过这也使得 Android的世界进一步分裂开来。

理论上来说,Android是一个开源项目(AOSP),仍然属于免费和开放源码,但是这个系统上运行的软件和应用都需要用Android SDK来开发。那么现在假如有开发者利用Android SDK建立了另一个版本,是否就意味着违反了软件许可协议条款了呢?

这种可能性确实是存在的。在Google的Android和Amazon的Android,两种平台开发应用程序通常是相互兼容的,Google可 能不会特别关注这种情况,但是未来随着智能电视、家用游戏机等Android系统越来越多,碎片化的问题会更为严重。如果Google继续这样坐视不管, 忽视碎片化的问题,那么Android应用程序的兼容性会变得越来越糟糕,这将伤害到整个生态系统。

作为移动应用的开发者,你仍然可以使用以前下载Android SDK,并且无视最新的条款。但如果你一旦下载或更新了Android SDK并且同意了协议条款,就要严格遵守。或者,使用一些如Replicant 4.0 SDK这样的更加开放的SDK。

谷歌哭了:Replicant 4.0 SDK发布搅乱大局

一个大生态 or 一群小生态

事实上,在Android的世界中,衍生出两个种族:一个是随谷歌发布的最新系统,包括了手机和平板电脑的操作系统,制造商尽力要让自己的硬件与之 保持同步和兼容,并推出自己的Android OEM系统。另一个种族,是制造商仅仅需要最为基本的程序,完全无视谷歌的升级,制造商自己构建起了一个相对独立而封闭的小生态。他们和谷歌或者其他任何 公司都没有特定关系。慢慢的,目前的Android已经不再是一个凝聚而集权的生态系统了,而是衍生出了许多小的生态系统。

姜饼为王,Android2.3乃大

2012年,全球共售出7.86亿台Android手机。中国已经成为全球Android手机最大市场,平均每3部手机中就有2部采用 Android系统。据Google Play数据显示,过去几个月,来自“果冻豆”系统的流量出现爆炸性增长,12月市场份额已达10.2%,高于11月的6.7%。去年10月,“果冻豆” 的市场占有率仅为2.7%。目前,最流行的系统仍然是Android 2.3,自2011年9月以来就没有任何更新了,下图可以看到,刚跌出50%但是依旧占据绝大部分市场份额。

图:即使在Android内部,碎片化也非常严重

下一步,Google怎么走?

Google的整个做法,确实非常怪异,一方面希望整个Android生态系统繁荣昌盛,但是其分裂性又是这种繁荣背后的后遗症。加入了”3.4条 款”之后,这还能叫做开源吗?何谈开放性?我真的很难想象这样一幕的发生:Google为了阻止Android的分裂性而通过法律途径起诉一家公司,又或 者将某个应用从Google Play应用商店下架。但话又说回来,Google为什么要在协议条款中加上这样一句话呢?这样做就真的能阻止Android的碎片化吗?Google要 留住这些硬件制造商,不能让他们倒戈到其他生态系统中。虽然目前Android生态系统中谷歌看似有许多伙伴,但是他们谁人不心怀鬼胎?三星俨然已经成为 了Android的代名词,又或者说Android成为了三星的代名词。全球第一大Android厂商的三星,也不忘记另起炉灶做起新的Tizen系统。 另外,Google也应该努力拉拢如诺基亚这样的制造商“下水”。在碎片化的梳理方面,应该从系统本身入手,加大兼容性与适应性。让那些分裂衍生的 Android小生态系统,如果不兼容谷歌最新的官方版本,则必然走向灰飞烟灭。

文/移动新观察

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小损失函数。 11. **正则(Regularization)**:技术如 Dropout、L1/L2 正则等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值