钢铁股的思考(上)

钢铁股的思考

 

还是那一句话:研究公司,首先得研究行业;要研究行业景气度,首先得研究供求关系;我就再一次分析一下钢铁业的供求关系。

作为中长期投资者,研究上市公司是工作,是赚钱的基本功。在介入买进一个你认为价值低估的公司以前,应该首先得研究分析一下这个行业如何?这个行业的景气度在什么位置,特别是周期性行业。不可否认,钢铁行业就是标准型的周期性行业,所以,研究分析钢铁行业是应该的,也是必须的事情。

周期性行业,当一个行业处于景气度高位,媒体上大谈特谈什么什么公司价值低估,什么什么股票市盈率特别的低,这个时候你就不应该动心,因为行业景气度处于高位,公司的业绩有着快速下降的可能性。今天的低市盈率,不等于明天还是低市盈率。今天的价值低估,不等于明天还是价值低估,这就是周期性行业。

所以,在证券市场,就有着那样的一句话:周期性行业应该在市盈率高企时买进,在市盈率低位时卖出的经验之谈。这句话完整的说法应该是:周期性行业应该在景气度低迷、市盈率高位时买进,在景气度高位、市盈率低位时卖出。

摘自拙作《钢铁行业之我见》,对钢铁业有兴趣的朋友可以去看看。

 

首先让我们看一下近几个月的生产量、净出口情况:

2006年全国主要钢材产量统计:

日期/品种     粗钢     生铁      钢材   日均产  折年产

十月份产量  3768.39   3615.06   4159.35  121.56  44365

九月份产量  3616.18   3497.44   4007.64  120.54  43997

八月份产量  3670.02   3478.07   3896.48  118.39  43211

七月份产量  3609.06   3470.91   3865.98  116.42  42493

六月份产量  3661.88   3505.23   4119.97  122.06  44553

五月份产量  3593.41   3532.60   4023.30  115.92  42310

四月份产量  3371.11   3245.10   3831.14  112.37  41015

 

三季度产量 10942.89  10466.42  11689.49  118.94  43415

二季度产量 10694.01  10286.24  11995.62  117.52  42894

一季度产量  9252.95   9033.36  10199.56  102.81  37526

十月份累计 34614.01  33523.86  38061.57  113.86  41560

 

06年净出口钢材数据:

十月份净出口钢坯、钢材共计377万吨,折合成粗钢为395万吨

九月份净出口钢坯、钢材共计353万吨,折合成粗钢为369万吨

八月份净出口钢坯、钢材共计331万吨,折合成粗钢为345万吨

七月份净出口钢坯、钢材共计285万吨,折合成粗钢为298万吨

六月份净出口钢坯、钢材共计376万吨,折合成粗钢为393万吨

 

十月份累计净出口钢坯、钢材2404万吨,折合成粗钢为2514万吨

第三季度净出口钢坯、钢材共计969万吨,折合成粗钢为1012万吨

第二季度净出口钢材582万吨、钢坯210万吨,折合成粗钢829万吨。

第一季度净出口钢材186万吨、钢坯79万吨,折合成粗钢277万吨。

 

在以上的二组数据中我发现了二个不同寻常的现象,一是78910月份,连续四个月的钢材日均产量不超过六月份的日均产量。这是我国几年来所没有的现象,说明产能的扩张没想象中的那么厉害,更没有主流媒体以及专业人士所说的厉害。二是今年第三季度的产量比第二季度增加249万吨,但净出口增加了183万吨,国内资源供应量增加仅仅是66万吨,假如库存不变,那么意味着第三季度的消费量仅仅是增加66万吨,这是不可思议的事情。

从道理来说,第三季度环比消费增加量不会少于500万吨,那么就只有两种可能,一是统计数据有问题,二是在消耗库存。我的感觉告诉我,两者都存在,所以就引起了十一月初的钢材价格快速度上涨。目前的库存已进入低库存的状态。

根据十月份生产量统计、日均产量分析,基本上符合我以前的判断,今年的产能达到4.60亿吨,比去年增加3000万吨;今年的产量达到4.20亿吨,比去年增加7000万吨;其中3100万吨用于出口,3900万吨国内消费增加,06年国内消费粗钢达到3.90亿吨,增加11.43%,基本上供求平衡。

注:我这里的数据全部是粗钢数据。

 

好险那!假如没有国际钢材价格的高高在上,假如今年没那么多的出口量,那么今年我国的钢铁业不敢想象,所以,那些专家们的忧虑还是有道理的。现在和大家说一下在市场经济情况下供求关系对于价格的影响,一般情况下,对于基础原料类假如短缺5%,那么市场价格就可以上涨100%;假如供大于求5%。那么产品价格就可以下跌至平均成本线以下,也就是全行业亏损,只有少数优势企业能获利。

目前来说,我国钢铁业的发展离不开国际市场的支持,在国际性生产分工的趋势下,由于我国的钢铁业已具备成本上的国际竞争力,所以,我国低层次、低附加值钢材的大量出口将成为必然,不可逆转。由于宝钢、鞍钢等优势企业工艺技术的提高,高附加值产品、产量的不断提高,逐渐替代进口成为必然,使得净出口的增长不可逆转。除非人民币大幅度升值使成本优势不复存在;除非政府限制出口,但没一个政府愿意那样做的。

我估计以后年度的产能、产量、消费量、净出口都将进入低增长状态。

07年我预测产能达到4.90亿吨,增加3000万吨或6.52%;产量达到4.60亿吨,增加4000万吨或9.5%;国内消费达到4.30亿吨,增加4000万吨或10.26%;净出口达到3700万吨,增加600万吨或19.35%(我怕形成贸易摩擦,所以还是就保守一点,否则完全可以净出口达到4000万吨);如此,将形成钢材缺口700万吨。呵呵,应该说还是供求平衡,但最起码不会供大于求。

 

结论:考虑到供求关系,考虑到目前的低库存,考虑到国内外价格差异,我认为06年初的钢铁业景气度拐点形成并确立,07年景气度将适度提高。今天我预测,07年的钢材平均价将上涨5%左右。钢铁股整体业绩将增长20%以上,体现出低价、低市盈率、高成长“两低一高”的特性。

女士们!先生们!朋友们!今天的我,屁股指挥大脑的和你说:07年将成为钢铁年!钢铁股将成为你必然的选择!

 

以一组排列整齐的字为证:

豪门贵妇属宝钢,

小家碧玉是鞍钢。

军中主将应武唐

凯旋欢唱在济钢。

 

风险提示:

1,大盘短线上涨比较多,请注意大盘调整风险。

2,钢铁股短线上涨比较多,请注意短线风险。

3,钢铁股,我在二个月以前曾经那样说:钢铁股价值低估,你可以乱买,煤炭股不能乱买。但现在的钢铁股也不能乱买了,当然,大多数的钢铁股还是可以买进的。

4,关于钢铁业景气度的分析,我是个外行,仅代表我这个外行的个人看法,不一定正确,请注意钢材市场的变化。

 

后记:对不起朋友们了,这一篇分析昨天中午发就好了,大家就可以成本低一点,但我想不到钢铁股竟然今天就启动,所以在今天上午就急匆匆的发一个结论给你先睹为快。

 

 

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 、资源5来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 、资源5来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。、 5资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值