转:叶檀:可怕的暴利 囤地胜过囤黄金

有三分之一的开发商只囤地不盖房,这是房地产界著名的小潘同志给出的数字。

[@more@]

北京核心城区的工体四号地块被李泽楷旗下的房地产公司盈科大衍地产公司拿走,按照约定此地块开工日期为2006年9月20日,竣工日期为2008年3月31日,合同成为一纸空文,该地块于今年8月21日被转让给瑞安建业。

仅此一项转让,盈科大衍赚了多少呢?转让价为1.18亿美元,当初拍卖价为5.1亿人民币,按照当时的汇率,仅为0.6414亿美元,按照2009年8月的汇率,约为0.7467亿美元,考虑到中间费用,“小超人”大概赚了0.5亿美元,3年利润在78%以上。这样好的买卖,还有谁会不囤地呢?

如果“小超人”囤金,他的收益又有多少?2006年9月15日的现货金为每盎司572.35美元,2009年8月21日为953.85美元,盈利381.50美元,盈利为60%左右。也就是说,在中国一线城市核心区域囤地收益好于囤金。

这不是“小超人”第一次玩转土地市场,香港的数码港项目就是玩转土地与资本市场的典型。来看看香港理工大学会计学与金融学院副教授林本利先生的分析。1998年,盈科拓展(盈拓)向特区政府提出数码港计划,1999年3月时任香港特区财政司长的曾荫权先生宣布有关计划,电讯盈科免费得到土地住宅部分(名为贝沙湾)和商场的发展权,条件是需要为政府发展数码港,然后便交给由政府全资拥有的数码港有限公司。

此后一连串的资本运作,可以上MBA教材。在取得香港“数码港”资讯园区开发权后,盈拓成立盈科数码动力(盈动),借“得信佳”的壳上市,股价一天狂升23倍,一天就赚了300多亿,轰动全球金融业。不仅上市后股价从停牌前的1角多,飙升至3元多,此后借科网与地产双重概念,很快攀升到20元。2000年2月,盈动宣布举债900亿元收购百年老店香港电讯,令股价冲上28元5角 (相当于现在的142元5角),到达高潮。在科网泡沫崩溃、收购计划于2000年8月完成后,新公司电盈大股东及高层行使认股权与出售手上股票,套现40多亿港元,而后股价足足跌去九成以上。其中的关键就是地产项目,在借壳得信佳时,李泽楷以香港数码港发展权无偿注入及总值24.6亿港元的地产项目为代价,换取得信佳75%股权并握有一批可换股债券。

由于电盈业绩大滑坡,李泽楷提出私有化方案,通过承担公司债务,几乎“不费分毫”就可换取电盈全部股权。当时的背景是香港地产市场在2007年下半年在减息刺激下强势转暖,在港上市的地产股纷纷获得大股东在二级市场上增持,所谓电盈私有化,主要是将其中主要盈利部分盈大地产私有化。由于香港证监会出具证据反对,私有化动议被法院驳回,电盈小股东激动得落泪。

现在我们可以理解为什么囤地好于盖房。“面粉”贵过面包,说明通胀预期十分强烈,此时面粉也好,面包也好,他们的稀缺程度相同,但是囤积面粉有无数好处:面粉既可以像面包一样畅销,还可以免去开发成本,减少在开发过程中房价涨跌的不确定性。

潘石屹先生所说的三分之一开发商囤地不盖房,如果属实,这是一个可怕的数据,说明中国的房地产行业已经彻底资本化、泡沫化了。上游开发商与某些地方政府一起囤地待价而沽,下游追求资产保值的投资者大买高档住宅与豪宅,业已占据购房者的35%以上,这绝不是普通的消费品市场,而是一个土地与现金为王的投资市场,土地成为重要的期货品种。

政府有针对开发商囤地的专门政策,2007年年中,国土资源部发出内部通知,要求各地加快处置利用闲置土地:土地闲置费原则上按出让或划拨土地价款的20%征收;依法可以无偿收回的,坚决无偿收回。对于违法审批而造成土地闲置的,要在2007年年底前完成清退。但从北京工体四号地块、上海的楼脆脆等案例来看,收回闲置土地的政策在多数时候成为一纸空文。更令人震惊的是如下数据,2007年年底的统计数据,不仅开发商囤地了10亿平方米,国家土地储备中心也在囤积大量土地,从2002年到2006年全国计划的住宅用地供应量为21亿平方米,而所有房地产商购置土地总量仅14.5亿平方米。

如此泡沫、如此混乱的土地市场不改革,所有的人都会变成囤积者,最终将经济囤成一潭死水。

http://biz.cn.yahoo.com/09-11-/124/ui0s.html

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/220284/viewspace-1028467/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/220284/viewspace-1028467/

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值