《动手做科研》训练营第1天
今日任务
- 学会如何快速使用colab/kaggle notebook,执行python代码
- 大模型应用,如何调用
准备python运行环境 教程
线上的这个kaggle运行平台就是不用繁琐的下载一些库,本身包含了很多的库,给我们省去了很多的麻烦
在Kaggle Notebook上注册了账号,选择的是用谷歌邮箱注册,然后在主页选择code上copy的代码直接运行
也可以create notebook
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
# 示例数据
X = np.array([[1], [2], [3], [4], [5]]) # 特征
y = np.array([2, 4, 6, 8, 10]) # 目标变量
# 拆分数据
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 创建模型
model = LinearRegression()
model.fit(X_train, y_train)
# 预测
y_pred = model.predict(X_test)
# 输出结果
print("预测值:", y_pred)
print("均方误差:", mean_squared_error(y_test, y_pred))
调用大模型
调用大模型的目的是啥?为什么要在代码里写上调用大模型的接口?
调用大模型的目的是利用其强大的计算能力和训练数据,进行复杂的任务,如自然语言处理或图像识别。在代码中调用大模型的接口可以让你直接利用这些模型的功能,实现更高效、更智能的解决方案。
步骤
-
pip install dashscope
-
获得API-KEY:开通DashScope并创建API-KEY
运行一下代码
from http import HTTPStatus
import dashscope
dashscope.api_key="xxxx"#此处填写你获取的apikey代码
def call_with_messages():
messages = [{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '请介绍一下通义千问'}]
response = dashscope.Generation.call(
dashscope.Generation.Models.qwen_turbo,
messages=messages,
result_format='message', # 将返回结果格式设置为 message
)
if response.status_code == HTTPStatus.OK:
print(response)
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
))
if __name__ == '__main__':
call_with_messages()
调试成功后输出一下结果
{
"status_code": 200,
"request_id": "a75a1b22-e512-957d-891b-37db858ae738",
"code": "",
"message": "",
"output": {
"text": null,
"finish_reason": null,
"choices": [
{
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "通义千问是阿里云自主研发的超大规模语言模型,能够回答问题、创作文字,还能表达观点、撰写代码。作为一个大型预训练语言模型,我能够根据您提出的指令产出相关的回复,并尽可能提供准确和有用的信息。我会不断学习和进步,不断提升自己的能力,为用户提供更好的服务。如果您有任何问题或需要帮助,请随时告诉我。"
}
}
]
},
"usage": {
"input_tokens": 25,
"output_tokens": 77,
"total_tokens": 102
}
}
“usage”: {
“input_tokens”: 25,
“output_tokens”: 77,
“total_tokens”: 102
}
}