创业公司天使轮、A轮、B轮、IPO融资时股权问题

很多创业者创业之前一直专注于自己的idea和自己的商业计划书,当公司开张的时候或者投资人问股份的问题的时候才发现自己对此一头雾水,找了很多书,问了很多“砖家”发现自己得到的要么是一堆数据,要么是轻描淡写没有点到痛点。

创业者不去寻求过安安稳稳的日子,却偏偏要去冲浪、去拼命。创业图的是什么?是公司里的“股权”。

弟兄们教你一个字:Captable,这是一个恐怕在字典里都找不到的单词,却在创投和创业当中,无所不在、无时不用,什么意思呢?即创业公司里的“股份拼骨图”。公司成长需要不断引入资金,每次拿了投资人的钱就要给人家股份,所以“股份比例”会随着公司不断的融资和扩大而变化。

让我们来一起来玩一盘Captable的游戏…不,做一道“应用题”:以创业为起点、上市为终点,把一个创业公司成长过程中的每一次股份变化都汇总起来,看看这“股份拼骨图”是如何发生变化的?这里面究竟隐藏着什么样的玄机。

案例

好,让我们来看看黄马克公司的“股份拼骨图”吧:

创业公司开张时应该发多少股票?这是很多创业者在成立公司时碰到的第一个现实问题。这个问题没有标准答案,建议初创团队先发约10,000,000股。在这个基础上,经过三次融资以及团队的期权,到上市的时候,公司的总股数会达到100,000,000到150,000,000之间,如果上市时每股定价为8-10元,这家公司的市值会有8-10个亿,只要估值超过发行价,马上直逼成为人人眼红的十亿美元公司。

把股数定一千万股还有一个原因,就是将来给员工发期权的时候,拿出0.5%来,对一家总股数是10,000,000的公司来说就是50,000股,而对一家总股份为100,000的公司,仅仅是500股,哪一个更加吸引人?!记住,将来给员工股份,别给百分比,给股数!

 

  

黄马克的公司凭其优秀的团队和独特的idea,获得了VC的青睐。A轮融资是以Pre money 350万美金的价格融到了250万美金,Post money即600万美金,A轮投资人要求原有股东同意发15%期权给管理团队,公司员工持股计划在A轮投资完成前实施。黄马克搞到了VC的一笔大钱,团队还占将近60%的公司股份,运气真不错。

一般来说,VC会要求员工持股计划在VC投资进来之前执行,这样VC就可以减少稀释。不过不能认为这是A轮VC自私,要知道B轮VC到时候也会要求在他们进来之前再执行一次员工持股计划,这时A轮VC和创始股东将一起稀释。

员工的期权比例应该留多少?这个问题也是没有标准答案的,一般来说是5-15%。创业公司的原始股是很珍贵的,尽管它在很多人眼里并没有什么价值。

从表中可以看出,A轮融资有一个领头VC(Lead investor)和一个跟投VC。顾名思义,领投VC负责整个项目的谈判、尽职调查、法律文件……跟投VC跟从领投VC放点儿钱,不过有时候拖个跟投VC一起进来是有战略考虑的一步棋子,余言后述。

即使有几个投资人同时参与这轮过融资,有人是领投、有人是跟投,但是他们被视作一个整体,他们签署同一份法律文件,享有同样的利益和义务。

创业公司最大的问题是“不定性”,尤其是“证实模式”。瞧,虽然搞到了钱,但是黄马克的公司在A轮进来之后出现了管理和业务进展上的瓶颈,产品测试屡屡出错,没有按时投放市场,收入也没有按预期进来,不久,A轮融资的钱已经烧光,而B轮投资谈判一拖再拖,B轮VC坚持B轮的Pre money为500万美金(低于A轮的Post money),B轮VC投入300万美金,Post money为800万美金,B轮投资人还要求给未来团队留10%的期权,而A轮VC投资条款约定在B轮融资时如果股价低于A轮的Post money,A轮VC不稀释(!!)……兵临城下,公司危在旦夕,黄马克和他的团队不得不拍板同意B轮VC的条件。

经受过考验的优秀团队、明确的目标、外加充足的资本,黄马克公司如虎添翼,IPO上市计划提到了议事日程之中,选定了上市的地点、承销商,确定了路演的行程和策略,嘿嘿,蒸蒸日上的公司就是令人心旷神怡,更何况,上市之后公司里还要冒出一大串百万富翁……咱这就来给他们算算身价,瞅瞅他们未来的皮夹有多厚,假设这家公司拿出了20%的股份去上市,每股价格8美元:

注意到没有,上市了,公司的股票优先级取消了,大家统统变成了“普通股”,因为公司上市了,创业时期的那些风险防范就没有必要了,VC们想的是尽快套现,把身上穿旧的衣服脱下来,扔给二级市场上让股民们去抢着穿去吧。

看到了吧,创业真好,黄马克、刘比尔、周赖利身价都上千万美金了,这辈子全搞定了,吃喝是永远不用愁了!不过黄马克的团队要是在B轮的时候不栽跟斗,不被A轮、B轮VC活活啃掉好几根肋骨,他们现在的身价可能要翻番了……不管怎样,黄马克还是好样儿的,创业的弟兄们好好向他学习吧!

补充说明

1.早期创业公司的企业价值是很难估计的,VC们也无非根据持股比例和投入资金倒算出来几个数字而已,并不意味公司真正“值”多少钱。但是,早期公司的股份是很宝贵的,创业者要珍惜。

2.创业公司的成长,反映在股价的升值。升值越快,融资时稀释就越少。当然,公司能很好地精打细算省钱,融资次数越少,稀释也越小。举个例子,创业初期花掉3万块钱,等于差不多1%的公司股份,到了C轮以后,3万块钱连0.000005%都不到。所以,千万不要烧钱,能不找VC,最好别去找。创业者骨头要硬!

3.以上IPO的估值是简单化了的,没有考虑公司的收入和利润规模。

4.创业公司的股权在上市前是不流通的,估值也讲不清楚,没有一个市场价格,给员工股份时如果用百分比,谁都说不清这25%、15%、1%、0.1%......到底值多少钱。给他们股数吧,不管给了500股、5000股、50000股,你可以建议人家思考:等公司上市的时候股价如果是10元,简单一算就知道这些股份那时候大概会值多少钱。

5.前文提到“拖个跟投VC进来是有战略考虑的一步棋子”,解释一下:

早期的VC投资和创业一样,切忌香火断了,只要公司能活着,就有希望存在。所以早期VC的一个重要任务是能把下一轮的VC引入公司。

也许你以为当你把A轮VC的钱烧光了,可以让A轮VC再砸点儿进来吧?不行,这回A轮VC再掏钱可没那么简单,VC是不能随便因为你钱用光了,再给你一笔花去吧,那是违规的!具体地说,如果A轮是我投的,这轮的估值就是我认定的,那么B轮我就不能自己定价然后自己又放一笔钱进去。我必须找到第三方的新的领投投资人来认价,在B轮中我不能领投但可以跟投。这是VC行业的规矩,不然的话,我可以A轮定价500万,B轮翻十倍变成5000万,C轮再来十倍成5个亿......这是“内部交易”,不代表这家公司的“市场价格”。所以,VC投资的每一轮融资,都必须由新的第三方VC来认价。

一是因为要“香火不断”,二是因为未来融资的“定价权”,所以我要在A轮的时候埋下伏笔,邀请一个VC跟着投一点儿钱,买张票跟我一起看你演戏,要是你演得不错,下场戏的票价说不定这位VC愿意来定,而我可以轻轻松松地跟投,接着看你继续表演。

为清晰展示每一轮股份/期权的脉络,特制Excel表格如下:

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Unity_阿黄

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值