封基和开基的异同

封闭式基金,简称“封基”,学名叫“契约型封闭式”。

开放式基金,简称“开基”,学名叫“契约型开放式”。

相同点大致有:

一、都是基金管理公司的集合理财产品;

二、都属于面向社会公开募集基金的范畴;

三、都要执行《基金法》和规范的会计准则;

四、都要按照资产净值提取管理费、托管费;

五、目前基金分红都不需要交纳个人所得税;

。。。。。(欢迎补充)

不同点有:

一、交易方式不同:封基在两个交易所交易,和股票一样方便;开基则多种交易方式并存,只有ETF和LOF能在交易所交易,其他的目前有柜台交易和网上交易等方式。因此,就存在资金回笼到帐时间的差异,封基执行T+1,但资金到帐随时可以再使用。

二、交易对象不同:封基是持有人之间的交易,开基是持有人和基金公司之间的交易。

三、定价模式不同:封基的交易定价是市场行为,按照买卖双方的意愿自主定价交换、转让份额所有权,定价的依据参考净值,但常常会出现折价或溢价交易的情况;开基的交易定价是固定的,定价依据是交易日的单位资产净值。

四、交易费用不同:封基每次转让交易的费用固定,按照成交金额的千分之三(起点是5元)【沪市是否还有附加费用?】;开基执行的申购、赎回费用比较复杂多样,有的还分前端、后端,其中股票型开基的费率估计不少于2%。

五、净值的计算和公布不同:封基的净值按照星期五当天交易的均价计算(因此可能出现高估或低估),每周公布一次;开基的净值按照每天的收盘价计算,每天公布一次。

六、持有人结构不同:根据最新的信息,封基的持有人以机构为主,绝大多数的封基被机构持有比例达到50%以上,高的达到80%以上;开基在去年两次发行高潮之后,机构的持有比例被大大稀释,目前以个人持有为主。

七、分红的意义不同:封基分红是按照已经实现的可分配收益,全年分红不低于90%;开基也是90%,但是在面值一元以上的部分。由于目前封基都是折价交易,分红意味着持有人能够100%地收回那一部分,最高的比例接近交易价格的30%。开基的分红对于个人投资者没有实质性意义。随着新会计准则的执行,封基未来也可能被要求按照面值一元以上部分的90%实施年度分红;并且,所有基金公司都修改了封基合同的分红条款,封基有可能年内多次分红(06年度部分封基事实上分红超过了一次)。

八、政策趋向不同:封基除了在少数时间出现过溢价交易的情况外,多数时间都在折价交易,最高折价率一度超过50%,是监管和管理方面的尴尬。因此,除了已经有一些封基到期转为开基之外,政策上预期会对此做出应对,就是所谓的创新、改革等等。开基则没有类似的预期。

其他还有:

封基在期限内份额固定,多数采取80%股票+20%债券的配置,基金经理可以有计划地操作,不必为资产的突发变化操心.开基每天要应对份额的变动,其中偏股票型开基最高可以持有资产净值95%的股票,但必须预留5%的现金以应对赎回.

封基有封闭期限,一般到期转开放或者清盘;开基一般没有期限,持有人在非特别封闭期间艘随时可以申购/赎回.但是,开基规模一旦低于下限,有可能被要求清盘.

随着"封转开"的逐步实施,封基总份额逐步减少,开基规模壮大,在公开募集基金中的比例出现明显变化;等等。

---------------------------------

温馨提示:我的文字仅供参考,不构成任何股票/基金买卖的暗示和建议.欢迎交流,但你的决策你做主.赚钱了你没事偷着乐,赔了也别怨天尤人.

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值