Python3--我的代码库之Axis(五)

一、Along an Axis

Axes are defined for arrays with more than one dimension.

A 2-dimensional array has two corresponding axes:

The first running vertically downwards across rows (axis 0)
The second running horizontally across columns (axis 1)


解释

  1. 轴这个概念是为不止一个维度的数组准备的;
  2. axis = 0,第一个维度,垂直向下贯穿所有行数据,数据聚合时,注意贯穿,合并数组时,注意垂直向下;
  3. axis = 1,第二个维度,水平贯穿所有列数据,注意的点如上;

For example

a = array([[1, 2, 3],
                  [4, 5, 6]])
b = array([[2, 3, 4],
                  [5, 6, 7]])

np.sum((a),axis=0) # 向下贯穿所有行数据,即按照分别计算所有列的和

Out:

array([5, 7, 9])

np.sum((b),axis=1) # 水平贯穿所有列数据,即按照分别计算所有行的和

Out:

array([ 9, 18])


二、Merge’s Axis


a = array([[1, 2, 3],
                  [4, 5, 6]])
b = array([[2, 3, 4],
                  [5, 6, 7]])
np.concatenate((a,b),axis = 0) #vertically downwards,垂直向下合并

Out:

array([[1, 2, 3],
          [4, 5, 6],
          [2, 3, 4],
          [5, 6, 7]])

np.concatenate((a,b),axis = 1) #horizontally,水平合并
Out[37]:
array([[1, 2, 3, 2, 3, 4],
[4, 5, 6, 5, 6, 7]])


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 以下是Python实现的K-means算法代码: ```python import numpy as np import matplotlib.pyplot as plt def kmeans(X, K, max_iters=20): centroids = X[np.random.choice(np.arange(len(X)), K), :] for i in range(max_iters): C = np.zeros(len(X)) for j in range(len(X)): distances = np.linalg.norm(X[j] - centroids, axis=1) cluster = np.argmin(distances) C[j] = cluster for k in range(K): centroids[k] = X[C == k].mean(axis=0) return C, centroids # 生成数据 np.random.seed(0) X1 = np.random.randn(100, 2) + np.array([2, 2]) X2 = np.random.randn(100, 2) + np.array([-2, -2]) X3 = np.random.randn(100, 2) + np.array([2, -2]) X4 = np.random.randn(100, 2) + np.array([-2, 2]) X = np.vstack([X1, X2, X3, X4]) # 调用kmeans函数 C, centroids = kmeans(X, 4) # 绘制结果 plt.scatter(X[:, 0], X[:, 1], c=C) plt.scatter(centroids[:, 0], centroids[:, 1], marker='x', s=200, linewidths=3, color='r') plt.show() ``` 其中,`X`是一个$n\times m$的矩阵,其中$n$是数据点的数量,$m$是每个数据点的维度。`K`是聚类的数量,`max_iters`是最大迭代次数。函数返回一个长度为$n$的向量`C`,其中的每个元素表示该数据点所属的聚类编号,以及一个$K\times m$的矩阵`centroids`,其中的每行表示一个聚类的中心点。 ### 回答2: K-means算法是一种常用的聚类算法,在Python中可以使用scikit-learn中的KMeans模块进行实现。以下是K-means算法的Python代码示例: ``` # 导入所需的 from sklearn.cluster import KMeans import numpy as np # 创建样本数据 X = np.array([[1, 2], [1, 4], [1, 0], [10, 2], [10, 4], [10, 0]]) # 创建并拟合K-means模型 kmeans = KMeans(n_clusters=2, random_state=0).fit(X) # 获取每个样本所属的簇 labels = kmeans.labels_ # 获取每个簇的中心点坐标 centroids = kmeans.cluster_centers_ # 输出结果 print("每个样本所属的簇:", labels) print("簇的中心点坐标:", centroids) ``` 以上代码将创建一个包含6个样本的数据集X,其中每个样本有2个特征。接下来,使用KMeans函数创建一个K-means模型,并使用fit函数拟合数据。通过调整n_clusters参数的值可以指定需要聚类的簇的数量。然后,可以使用labels_属性获取每个样本所属的簇,并使用cluster_centers_属性获取每个簇的中心点坐标。最后,输出每个样本所属的簇和簇的中心点坐标。 需要注意的是,K-means算法的结果可能受到初始聚类中心的影响。可以通过设置random_state参数来固定随机种子,以使结果可重复。 ### 回答3: K-means算法是一种常用的聚类算法,可以将数据集分为k个不同的簇。下面是一个用Python实现K-means算法的示例代码: ```python import numpy as np def k_means(data, k, max_iters): # 随机选择k个样本作为初始聚类中心 centers = data[np.random.choice(data.shape[0], k, replace=False)] for _ in range(max_iters): # 计算每个样本与聚类中心的距离 distances = np.linalg.norm(data[:, np.newaxis] - centers, axis=-1) # 分配每个样本到离其最近的聚类中心 labels = np.argmin(distances, axis=-1) # 更新聚类中心为每个簇的平均值 centers = np.array([data[labels == i].mean(axis=0) for i in range(k)]) return centers, labels # 测试 data = np.array([[1, 2], [1, 4], [1, 0], [10, 2], [10, 4], [10, 0]]) k = 2 max_iters = 10 centers, labels = k_means(data, k, max_iters) print("聚类中心:") print(centers) print("样本标签:") print(labels) ``` 该代码实现了K-means算法,首先随机选择k个样本作为初始聚类中心,然后迭代更新聚类中心和样本标签,直到达到最大迭代次数。最终输出聚类中心和样本标签。在给定的数据集中,将数据分为2个簇,并输出了每个簇的聚类中心和样本标签。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值