【Python】简单模型建立思路

这里的建模:引入包(设置字符集,防止中文乱码)>读入数据,查看数据>异常数据处理标准化>对数据进行训练集、测试集划分(再次查看数据)>模型对象创建>模型训练,输出相关参数>模型输出保存>加载模型预测>预测值与实际画图比较

这里面的知识点比较细,可以搜到很多案例。第一次学的话,模型的保存容易实际在操作的时候出错。


#案例一般都是下面这样写
joblib.dump(ss, "result/data_ss.model") 
joblib.dump(lr, "result/data_lr.model") 

直接这么写的话会报错
FileNotFoundError: [Errno 2] No such file or directory: 'result/data_ss.model'

#### 这里要注意保存模型要求给定的文件所在的文件夹result必须存在
joblib.dump(ss, "F:/load/result/data_lr.model") ## 将标准化模型保存
joblib.dump(lr, "F:/load/result/data_lr.model") ## 将模型保存

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于Python的股票分析通常需要以下步骤和设计思路: 1. 数据采集:首先需要从各个数据源(如股票交易所、新闻网站等)采集数据。可以使用Python中的数据爬虫库(如Scrapy、BeautifulSoup等)进行数据采集,或者从数据提供商处购买数据。 2. 数据清洗和处理:采集到的数据往往需要进行清洗和处理,以便后续的分析和建模。可以使用Python中的数据处理库(如Pandas、Numpy等)进行数据清洗和处理,包括去重、缺失值处理、异常值处理等。 3. 数据可视化:可视化是数据分析的重要环节,可以使用Python中的可视化库(如Matplotlib、Seaborn等)将清洗后的数据进行可视化处理,以便更好地观察和分析数据。 4. 数据分析和建模:根据需求选择合适的数据分析方法和建模技术,使用Python中的统计分析库(如Scipy、Statsmodels等)和机器学习库(如Scikit-learn、TensorFlow等)进行数据分析和建模,得出预测结果或者对股票市场进行分析。 5. 模型评估和优化:使用Python中的模型评估和优化工具(如GridSearchCV、Cross-validation等)对建立模型进行评估和优化,提高预测准确率和稳定性。 6. 结果展示:最后,根据需求使用Python中的可视化库将结果进行展示。可以将结果进行图表展示、网页展示等方式,以便更好地呈现分析结果。 以上是基于Python的股票分析的一般设计思路,具体实现需要根据具体需求和数据特点进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值