Google晋身千亿美元俱乐部 市值超越多家巨头

成为一家公开上市企业仅仅14个月,Google的市场价值在周一收市时首次超过1000亿美元,这让他们站到了能与可口可乐公司等美国老牌巨头比肩的高度。

  目前大约只有20家美国企业市值是超过1000亿美元的,当中没有哪一家达到此高度的速度能比得上Google。这家新兴的搜索引擎去年首次公开上市时每股招股价为85美元,其荷兰式拍卖招股方式让很多华尔街银行家恼怒不已,却让那些想购买其股票的个别投资者十分高兴.
  Google周一的股价收市时报348.65美元,部分原因在于大市总体上涨,部分原因也在于上周所公布的最新季度财报的影响。以其大约2.9亿股的已发行股票,Google的市值大约在1010亿美元。而创办于1886年的世界知名企业可口可乐公司以其周一收市价42.40美元计,其市值大约是1020亿美元。

  《e-Stocks: Finding the Hidden Blue Chips Among the Internet Impostors》的作者Peter Cohan说,“如果有什么企业能让人疯狂的话,Google就是了。Google不同于过去的互联网络企业的地方是他们不仅在盈利,而且一直保持惊人的增长速度。”

  即使在那些增长迅速的科技企业中,Google的冒升也显得光芒四射。以其对手雅虎来说,在过去三年里都没有达到1000亿美元的水位,现在大约是490亿美元,只有Google的一半。

  不过,Google真的值1000亿美元吗?

  身为市场研究公司Peter S. Cohan & Associates总裁Peter Cohan表示,以其现在的交易额是2006年预计利润的45倍来看,如果其收入增长率如大多数分析家所预计的只有36%,Google的股票价值是被高估了。不过,如果其增长率和过去一样最终证明是远高于预计的话,“那么,现在的股价是十分便宜的,”Cohan说。
  
  Google目前已经跻身千亿美元市值俱乐部,与美国科技行业领头羊如微软(2710亿)、Intel(1430亿)、IBM(1350亿)和思科(1110亿)等比肩,而其他一些著名高科技企业还只能在外观望,包括Genentech(925亿)、戴尔(780亿)、甲骨文(660亿)和苹果(470亿)。

  撇除一次性调整项目,Google上周公布的第三季度营收是4.37亿美元,约合每股收入1.51美元,而在这之前分析家普遍预计其每股收入仅是1.36亿美元。

最近三个月Google股价走势图


  现在,即使是那些对Google一直持怀疑态度的分析家也对这份财报无话可说。Needham的分析员Mark May将其评级指数从“持有”提高到“买入”并将其目标价格定在了相对保守的每股370美元。在其评论文章中,他将Google称为“互联网消费领域的领导性科技企业”,不过他也表示Google仍然面临新竞争对手、毛利下降和消费者口味变幻无常等风险。

  大部分的华尔街专家都认为Google股价还将继续上升,加拿大皇家银行、First Albany和莱曼兄弟银行在上周Google公布令人震惊的财报之后将其目标价格提升至450美元,这样的话,届时Google的市值将超过1300亿美元!

  “到达某个价格点后,Google的股价上升还是会停的。”Cohan说。“但我真的猜不到具体是在哪个价位。”

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值