自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 调用大模型api返回输出结果--LLM

首先我们要明白api是什么东西,这里我们可以去看一下百度上官方的解释,当然,其实不看也行,我们只要能用即可。api其实就是一个封装的函数,比如你可以直接去gpt网站用,也可以利用api写代码用,其实就是一把钥匙而已。本文主要基于智谱开放平台的开源文档来向大家进行介绍,国内的毕竟还是比较容易弄一些,也不需要做别的什么操作,只需要去智谱清言官网注册账号即可。注册账号会赠送100万个tokens,足够我们进行调用api使用大模型的练习了。

2024-01-29 16:54:17 1614

原创 Prompt书写介绍及案例展示----LLM

prompt书写及一些示例

2024-01-26 16:00:07 1098 1

原创 Numpy学习之reshape函数的使用

首先reshape函数的操作对象只能是数组或者矩阵(其实都一样),目的是去改变操作对象的形式。reshape(a,b)函数有两个参数a,b,表示修改为a行b列。# reshape(a,b)转为a行b列,操作对象必须是数组或者矩阵,a为-1或者b为-1表示自动处理。# reshape用法。

2023-12-17 00:15:09 103 1

原创 机器学习 01 线性回归梯度下降

这里的α就是我们平时所称的学习率,其实也就是步长,一般情况下设置的是0.01或者其它合适的值,当然我们现在不考虑对学习率的处理,只需要知道它是什么,其实就是我w往下找最优的时候,一步走多长。这里,我们引入损失函数,这里yi_p表示预测值,yi表示实际值,其实就是均方误差,我们要得到最优的w,显然是w取这个值时,这个损失最少,也就是w的值构成的直线对原数据的拟合效果最好。我们通过沿着梯度的反方向往下走,去找到最优的w,使得我们的损失最少,也就是最拟合原数据的那条线,就被我们找到了。# 给w,b设置初始值。

2023-12-15 11:00:30 51

原创 文本分析与社会网络分析 实验三 关键词提取(TF-idf,TextRank)

er本次实验主要了解两种不同的关键词提取方式:TF-idf和TextRank。一、TF-IDF全称是 Term Frequency - inverse document frequency。第一部分,就是词频(Term Frequency),即某个词语出现的频率。某个词语出现的次数多,也就说明这个词语重要性可能会很高。但是,这只是可能性,并不绝对。 逆文档频率(inverse document frequency)首先计算某个词在各文档中出现的频率。假设一共有10篇文档,其中某个词A在其中10篇

2022-04-06 16:42:12 1257 1

原创 大数据分析实验二:金融中的时间序列数据处理

一、金融数据的获取与处理导入包,通过pandas_datareader模块来从yahoo获取金融数据信息,应该是网站的问题,显示超时,获取不到数据,所以本文数据可以直接从文末尾的百度网盘中提取。import datetimeimport pandas as pdimport pandas_datareader.data as webimport numpy as npimport mathfrom statsmodels.formula.api import olsimport matp

2022-03-28 17:09:15 3935

原创 文本分析与社会网络分析实验二 jieba分词

jieba分词算法使用了基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能生成词情况所构成的有向无环图(DAG), 再采用了动态规划查找最大概率路径,找出基于词频的最大切分组合,对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法。支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词第一次

2022-03-23 00:04:54 462

原创 大数据分析实战实验1:J股票红利预测实验

J股票红利分析实验目的:掌握时间序列数据的建立掌握时间序列数据的影响因素掌握时间序列分析模型的建立方法实验内容:数据时j股票从1997-2017的20年来个季度红利数据,找出时序数据的构成因素,并分别通过指数平滑法和自回归ARIMA模型方法,建立时序数据的预测模型,并预测下两年的红利。实验知识点:时序数据的构成因素指数平滑法ARIMA模型实验环境:anacondajupyter实验过程:加载包import pandas as pdimport

2022-02-24 11:00:30 1410 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除