- pandas:
import pandas as pd
# 读取csv文件为DataFrame
df = pd.read_csv('data.csv')
# 查看DataFrame的前几行
head = df.head()
# 对DataFrame进行排序
df_sorted = df.sort_values(by='column\_name')
# 进行数据聚合
aggregated = df.groupby('column\_name').sum()
- Matplotlib:
import matplotlib.pyplot as plt
# 绘制折线图
x = [1, 2, 3, 4, 5]
y = [10, 20, 15, 25, 30]
plt.plot(x, y)
# 绘制散点图
plt.scatter(x, y)
# 绘制柱状图
plt.bar(x, y)
# 添加标题和标签
plt.title('Title')
plt.xlabel('X Label')
plt.ylabel('Y Label')
# 显示图表
plt.show()
- Seaborn:
import seaborn as sns
import matplotlib.pyplot as plt
# 绘制带有趋势线的散点图
sns.regplot(x='x', y='y', data=df)
# 绘制箱线图
sns.boxplot(x='group', y='value', data=df)
# 绘制直方图和核密度估计
sns.distplot(df['column'], bins=10, kde=True)
# 设置样式和调整图表布局
sns.set(style='darkgrid')
plt.tight_layout()
# 显示图表
plt.show()
- Scikit-learn:
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
# 创建线性回归模型
model = LinearRegression()
# 在训练集上拟合模型
model.fit(X_train, y_train)
# 在测试集上进行预测
y_pred = model.predict(X_test)
# 计算均方误差
mse = mean_squared_error(y_test, y_pred)
- SciPy:
from scipy.optimize import minimize
from scipy.interpolate import interp1d
from scipy.integrate import quad
# 最小化函数
result = minimize(f, x0)
# 插值函数
f_interp = interp1d(x, y, kind='linear')
y_interp = f_interp(x_new)
# 数值积分
result, error = quad(f, a, b)
- Statsmodels:
import statsmodels.api as sm
# 创建线性回归模型
model = sm.OLS(y, X)
# 在训练集上拟合模型
results = model.fit()
# 打印模型摘要
print(results.summary())
# 进行假设检验
hypothesis = 'x = 0'
t_test = results.t_test(hypothesis)
# 进行预测
y_pred = results.predict(X_new)
- NetworkX:
import networkx as nx
import matplotlib.pyplot as plt
# 创建图对象
G = nx.Graph()
# 添加节点和边
G.add_nodes_from([1, 2, 3, 4])
G.add_edges_from([(1, 2), (2, 3), (3, 4), (4, 1)])
# 绘制图形
nx.draw(G, with_labels=True)
# 计算图的中心性指标
centrality = nx.betweenness_centrality(G)
# 计算最短路径
shortest_path = nx.shortest_path(G, source=1, target=4)
# 显示图形
plt.show()
- BeautifulSoup:
from bs4 import BeautifulSoup
import requests
# 发送HTTP请求,获取网页内容
response = requests.get('https://www.example.com')
# 使用BeautifulSoup解析网页内容
soup = BeautifulSoup(response.content, 'html.parser')
# 提取网页中的文本内容
text = soup.get_text()
# 提取指定标签的内容
links = soup.find_all('a')
for link in links:
print(link.get('href'))
- TensorFlow:
import tensorflow as tf
# 创建图和会话
graph = tf.Graph()
session = tf.Session(graph=graph)
# 定义变量和操作
x = tf.constant(2)
y = tf.constant(3)
z = tf.add(x, y)
# 运行操作
result = session.run(z)
print(result)
# 定义神经网络模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(10, activation='relu'))
model.add(tf.keras.layers.Dense(1, activation='sigmoid'))
# 编译模型
model.compile(loss='binary\_crossentropy', optimizer='adam', metrics=['accuracy'])
# 训练模型
model.fit(X_train, y_train, epochs=10, validation_data=(X_val, y_val))
这些使用事例展示了以上每个库的基本用法和功能,可以根据具体需求进行相应的调用和使用。
实际案例:
假设我们有一个电商网站的销售数据,想要对销售情况进行分析和预测。
首先,我们可以使用pandas读取销售数据的CSV文件为一个DataFrame,并进行数据清洗和整理,以便后续分析。
import pandas as pd
# 读取销售数据
df = pd.read_csv('sales\_data.csv')
# 查看数据前几行
print(df.head())
# 对数据进行清洗和整理
# ...
接下来,我们可以使用NumPy计算销售数据的一些统计指标,比如平均值、标准差等。
import numpy as np
# 计算销售额的平均值和标准差
sales = df['sales'].values
mean_sales = np.mean(sales)
现在能在网上找到很多很多的学习资源,有免费的也有收费的,当我拿到1套比较全的学习资源之前,我并没着急去看第1节,我而是去审视这套资源是否值得学习,有时候也会去问一些学长的意见,如果可以之后,我会对这套学习资源做1个学习计划,我的学习计划主要包括规划图和学习进度表。
分享给大家这份我薅到的免费视频资料,质量还不错,大家可以跟着学习
![](https://img-blog.csdnimg.cn/img_convert/21b2604bd33c4b6713f686ddd3fe5aff.png)
**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
**[需要这份系统化学习资料的朋友,可以戳这里无偿获取](https://bbs.csdn.net/topics/618317507)**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**