凡客2011年或亏损6亿元 销售仍快速增长

亏损20亿元?凡客现金流难以为继?

2011年冬天的最后时分,凡客诚品(凡客品牌的主要实体公司)陷入一场同行和媒体的口水中,在多位高管离职后,“凡客危机”似乎愈演愈烈。

记者调阅北京工商局凡客诚品和北京凡库的工商资料,后者是凡客的投资人注资的重要载体,并采访多位接近陈年(微博)和凡客诚品人士后获知:凡客诚品的情况似乎并没有那么糟糕。

过去三年,凡客诚品亏损了2.5亿元;2011年,凡客诚品或将亏损6亿元。与此同时,凡客诚品保持了年销售额200%以上的增长。

而另一边,是凡客诚品的投资人,前仆后继地往凡客诚品投钱——今日的凡客诚品,是陈年和管理层努力做出来,亦是VC们坚定支持“砸”出来的。

对于凡客今年是保增长,还是争利润,陈年微妙地对记者回答:“凡客今年稳中求进。”

凡客诚品“砸”了多少钱?

2007年6月,陈年从卓越网离职已经2年,这2年间他创办过电商类企业,未能成功;这一次他考虑在网上卖衣服。

7月,他从王荣庆手中买下北京梦托邦信息技术有限公司(以下简称“梦托邦”)80%的股份,然后把其更名为“凡客诚品(北京)科技有限公司”(以下简称“凡客诚品”)。在陈年成为梦托邦实际控制人以前,雷军(微博)已经是梦托邦的股东,占股10%。而且,雷军一直到今天,都是凡客诚品的股东。

在卓越网做过高管、自己也创业过的陈年,从一开始就知道借助资本的力量。同年9月,他又注册成立了北京凡库诚品科技发展有限公司(以下简称“北京凡库”)。此后,北京凡库一直是联系凡客诚品和资本的纽带——VC们拿着大把美金投入埃文有限公司(Evan Corporation)换取股权,埃文有限公司将钱注入北京凡库,陈年等人将凡客诚品的股权质押给北京凡库,北京凡库协议控制凡客诚品。

北京凡库是这个VIE链条中的重要节点,也是接受VC资金的载体。从北京凡库实收资本和投资总额的变动,便可知道,陈年做凡客诚品,是一件多么烧钱的事情。

据接近凡客人士指出,中“投资总额”的变动,更为接近资本们投入的数额。凡客诚品前后融资六轮,其股权变动之复杂,远超外人想象,其主要脉络大体如下:A轮由联创策源和IDG资本领投;B轮由软银赛富领投;C轮由启明创投领投;D轮由老虎基金领投;E轮由上述老股东内部投;最后一轮则是大家熟知的淡马锡和中信产业基金领投,IDG资本跟投。

但上述远不是这六轮融资的全部,其中,联创策源是凡客诚品和陈年最为坚定的看多派,每一轮都跟投;IDG资本亦跟投多轮;包括F轮中,除了那三家外,前述股东中亦不乏跟投者。只有老虎基金和软银赛富跟投的轮次较少。

前述接近凡客人士指出,VC们几轮累积的投资总额应该在20亿元上下,估计这就是最初网上传凡客诚品亏损20亿元的来源。他指出:“亏损20亿元完全是胡扯。”

多位业内人士都告诉记者,凡客诚品在F轮的确获得2.32亿美元的融资,凡客诚品这一轮的估值,也的确

是32亿美元。所以,目前的凡客诚品,手中有现金而心中不慌。

F轮融资结束于2011年8月,熟知电商行业的人知道,彼时正是电商泡沫的顶峰,当时业内盛传一种说法:电商企业1元人民币的销售额,对应在私募市场上1美元的估值。而凡客诚品的F轮融资,毫无疑问,是泡沫顶峰的标志之一。

一位接近陈年的人士也表示,凡客最初几轮的投资者们,在后面几轮都跟投。他表示,这说明最接近和了解凡客诚品的VC们,都非常看好陈年和凡客诚品——不然不会坚定跟投。他也指出,电商的确是件很难做的事,美国之前几百家电商企业,大部分获得了风险投资,最终出来的仅亚马逊而已,亚马逊也烧了VC们很多钱。中国的电商行业,最终能做到一定规模并获利的,不会超过10家。

亏损真相

电商行业的走势,进入2011年四季度后盛极而衰。“电商过冬”的说法应运而来。据投中集团统计,2009年到2011年11月,PE、VC投资电商行业共有225笔,这其中千万级美元的投资比比皆是。虽然这里面不乏多家基金投同一家公司的情形。但这一轮过冬,对电商的创业者和投资人的负面影响都非常大。

一位电商业内人士指出,电商企业由热转冷的重要原因,是中国概念股赴美上市窗口的关闭。2011年8月,土豆网艰难上市,之后再无中国内地企业在美国上市。这造成的结果是,电商创始人难以通过IPO募资,电商的投资者们难以套现。

在这一背景下,凡客诚品成了重量级的出头鸟。

媒体上、同行饭局上的“凡客危机”,忽然之间就铺天盖地。

北京市工商管理局的凡客诚品过去三年财务数据显示,凡客诚品2008年到2010年的销售收入约为1.2亿、3亿、12亿元,这个数据和之前陈年的公开说法有所出入,但可以看出凡客诚品的成长性的确惊人。

从这些数据亦可以看出,凡客诚品过去三年亏损了2.5亿元人民币左右,凡客诚品的毛利率维持在40%上下,2010年利润率为-14.67%。

进入2011年后,陈年曾对媒体宣称2011年的销售收入目标是100亿。有陈年的投资人私下无奈地说,“人都有头脑发热的时候,我们其实没有给过他压力。”

记者获悉,凡客诚品去年前三季的销售收入为20亿元,去年预计销售额为32亿元。随着品类的扩充,凡客诚品碰到一个麻烦:库存显著增加。

前述接近陈年的人士告诉记者,凡客诚品去年8、9月份间的库存过高,但随后在一些促销手段后,凡客诚品的库存又恢复正常水平。但低价促销的恶果是:凡客诚品的利润率开始下滑。2011年,凡客诚品的利润率开始逼近-20%。

综上可知,凡客诚品去年的亏损额,大约为6亿元。

要盈利还是要速度?

一位外资投行人士告诉记者,凡客诚品四季度最终放弃上市,背后的原因是,对资本市场给出的估值不满意。他认为,凡客诚品IPO是没有问题的,关键看陈年和投资人是否愿意接受较低的估值。

如前面所说,凡客诚品F轮估值是32亿美元。正常情况下,IPO时的估值应该高于这一数字,否则最后一轮投资者就亏了。目前的美国资本市场,甚至再等上一年,凡客诚品都难以在这个价位IPO。

此时的陈年和凡客诚品,处于一个十字路口:是砍营销费用,放慢增速减小亏损,还是继续高举高打冲销售额?之前几年中,VC们在投电商时,决定投与否、估值几何等跟企业家对赌的标的,几乎是以销售额为纲。现在,逻辑是否转变呢?

2011年12月30日,陈年接受记者采访时,拒绝回答此问题,只表示未来凡客诚品的策略是“稳中求进”。

前述接近陈年的人士亦告诉记者:“陈年未来一年的策略,我认为还是以稳健为主。”

稳健为主背后的意思是,今年的凡客诚品,将放慢增速。

工商资料显示,凡客诚品在2008年的销售费用约为9300万——而凡客诚品那一年的收入,不过1.2亿元。陈年把那一年的收入近八成都交给了互联网广告商,且还得靠他妙手偶得的“凡客体”,才得以短暂时间内,让普通网民记住“凡客”。

到2010年,凡客诚品的营业费用为5.39亿,这其中销售费用可能超过4亿,销售费用占到凡客诚品收入的1/3强。

某种程度上,这是电商的逻辑——投入的是广告,“挤”出的是销售额。

到2011年,业内曾传过一种说法,凡客诚品这一年的销售费用高达10亿。前述接近陈年的人士告诉记者,真实的费用远没这么多。他认为,现在凡客诚品的回头客非常多,“2010年,凡客持平的机会不是没有,就算不持平也可以做到亏损很少。”

这一说法,和一位知名电商高管的看法吻合,他认为:凡客诚品只要砍营销费用,应该就是能打平的。因为以凡客今日的销售额,意味着每个月有2万多人次在凡客购物,凡客卖的是衣服,会有很多回头客,这样足以支撑凡客诚品的销售收入。

而陈年的说法是,“不用砍营销费用,也可以不亏损。因为凡客在成长。”

这句话背后的意思应该是,凡客诚品不用降低营销费用的绝对额。但随着凡客销售收入的扩大,营销费用只要不增长,那其占总收入的比例自然会降低。,但记者获知,凡客诚品现在还是由陈年领导的管理层在决策,VC们不会太多干涉陈年的决策。对此,陈年并不否认,他说:“资本方给了我足够的信任和支持。”

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
【6层】4837.9平米六层框架综合办公楼(含计算书、建筑、结构图纸) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值