thinkpython第十章练习10-5

Points:

>sorted()内置函数,不改变原来列表,新建一个升序排列的列表,并把这个新列表返回。

>.sort()方法,直接改变原来列表,返回值为None。

编写一个名为is_sorted的函数,接收一个列表为形参,并当列表是按照升序排好序的时候返回True,否则返回False

 

def is_sorted(t):
    if t == sorted(t):
        return True
    else:
        return False

t = [1,2,4,6,7,3]
print(is_sorted(t))
t2 = ['a','c','b']
print(is_sorted(t2))
t3 = ['a','b','c']
print(is_sorted(t3))

如上,使用的是sorted()这个内置函数,返回一个升序排列好的新函数,不改变原来的列表

 

 

def is_sorted2(k):
    copy_k = k[:]
    k.sort()
    if copy_k == k:
        return True
    else:
        return False

k = [1,2,3,4]
print(is_sorted2(k))
k2 = [4,3,2,1]
print(is_sorted2(k2))
k3 = ['a','b','c']
print(is_sorted2(k3))

如上,使用的是.sort()这个方法,返回None,但会改变原始列表k

使用在使用时,把列表k复制一份存储到copy_k,然后跟已经被sort方法”重置”过的k比较,是否一样(True) 

 

http://greenteapress.com/thinkpython2/code/list_exercises.py

官方给出的答案

def is_sorted(t):
    return t == sorted(t)
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于一个自学程序设计的入门者而言,他需要一本什么样的书呢?我认为标准有以下三个: 第一,介绍足够用的知识。这一点看似简单,但是却不易掌握,像许多人推荐的 A Byte of Python,内容就明显过少了,而处于另一个极端的 Learning Python 篇幅超过一千页,又明显超出入门者的需要。对于程序设计初学者而言,他们所需要的是(a)编程语言的基本特性;(b)程序设计的基本原则和思想。在这一点上 Think Python 就做得不错,240页的篇幅虽然不大,但是由于文风简洁紧凑,已经涵盖了程序设计的基本方面,甚至连 Debugging 这样的话题都有比较深入的探讨。 第二,具有足够而具有挑战性的习题。学习编程语言和学习外语有类似之处,要真正掌握必须经历在学习区刻意练习的过程,所谓学习区,就是你需要付出一定努力才能达到的区域。但是许多书籍题目设计并不完善,往往题目数量不够且挑战性不足,达不到刻意练习的要求。Think Python 的课后习题的编排我认为是非常出色的,首先题目本身非常有趣,其中不少题目取自 Car Talk 的 Puzzler 节目;其次题目的练习强度也基本足够,Allen B. Downey 在官方网站上提供的部分习题答案范例总行数达到了 8456 行(统计包含注释和空行),如果连同在 Python Shell 练习的代码,读完全书所写过的代码不会少于 2500 行;最后,题目本身具有一定的挑战性,绝对不是书中范例的简单重复,其中不少习题是给出提示要求你改进书中的范例。总而言之,在这方面我对 Think Python 也是比较满意的。 第三,内容有趣。现在许多流行的编程入门书(例如 Head First 系列)表面上看很有趣,但是细读下来很快就会对书中那些简单而又虚假的问题感到厌烦。Think Python 中所涉及的问题在深度上要更胜一筹,具有一定的难度,能让人静下心来真正思考问题的解决方案,而且书中的不少章节所解决的问题也具有实用性,例如 Case study: data structure selection 这一章中就涉及文本词频的分析、生成随机文本等问题,Files 这一章则涉及了根据 MD5 寻找重复文件的问题等等。 说完这本书的优点,再简单说说这本书的缺点,主要还是一些细节问题:例如,string 的不少 method 没有涵盖到;pickle 不介绍 dump 和 load,而是介绍了 dumps 和 loads;List Comprehension 只是一笔带过,没有细讲;异常方面的介绍实在太过精简,如此重要的话题应当多花些笔墨介绍;在 OOP 的部分太过拖沓,前面两章大可合并精简,而且 __init__ method 完全可以更早引入,以利于培养良好的编程风格。不过总体来说瑕不掩瑜。
<h3>回答1:</h3><br/>以下是使用Python编写的K-means算法数据挖掘第十章习题的代码: ``` import numpy as np from matplotlib import pyplot as plt from sklearn.cluster import KMeans %matplotlib inline # 生成随机数据 num_points = 200 num_clusters = 4 x, y = [], [] for i in range(num_points): if np.random.random() > 0.5: x.append(np.random.normal(0.0, 0.9)) y.append(np.random.normal(0.0, 0.9)) else: x.append(np.random.normal(3.0, 0.5)) y.append(np.random.normal(1.0, 0.5)) data = np.column_stack((x, y)) # 执行k-means算法 kmeans = KMeans(n_clusters=num_clusters, init='k-means++', max_iter=100, n_init=1, verbose=0) kmeans.fit(data) # 绘制聚类结果 colors = ['b', 'g', 'r', 'c', 'm', 'y', 'k'] for i in range(num_points): plt.scatter(data[i, 0], data[i, 1], s=30, color=colors[kmeans.labels_[i]]) plt.scatter(kmeans.cluster_centers_[:, 0], kmeans.cluster_centers_[:, 1], marker='x', s=200, linewidths=3, color='k') plt.show() ``` 该代码用于生成随机数据,并执行K-means算法进行聚类。最终绘制聚类结果,并以黑色十字形显示聚类中心点。可以通过修改随机数据的生成方式、聚类数目、算法参数等,来测试不同的聚类效果。 <h3>回答2:</h3><br/>K-means算法是一种常用的基于聚类的数据挖掘算法,可以对无标签数据进行聚类分析,本章中介绍了K-means算法的原理及其python代码实现。代码如下: ``` python import numpy as np import pandas as pd import matplotlib.pyplot as plt # 生成数据集 def create_datset(k, n): data = [] for i in range(k): init_center = np.random.randint(0, 30, size=2) x = np.random.normal(init_center[0], 1, size=(n, 2)) data.append(x) return np.vstack(data) # 计算欧氏距离 def distance(x, center): diffs = x - center return np.sqrt(np.sum(diffs ** 2, axis=1)) # k-means算法 def k_means(data, k, max_iter=100): # 随机初始化k个中心点 centers = data[np.random.choice(data.shape[0], k, replace=False)] for i in range(max_iter): # 计算每个样本距离最近的中心点 labels = np.argmin([distance(data, center) for center in centers], axis=0) # 更中心点位置 new_centers = [data[labels == j].mean(axis=0) for j in range(k)] # 判断聚类是否已经收敛,如果已经收敛则退出循环 if np.all(centers == new_centers): break centers = new_centers return centers, labels # 显示聚类结果 def plot_clusters(data, labels, centers): plt.scatter(data[:, 0], data[:, 1], c=labels, s=50, alpha=0.5) plt.scatter(centers[:, 0], centers[:, 1], marker='*', c='r', s=100, alpha=0.5) plt.show() if __name__ == '__main__': data = create_datset(k=3, n=100) centers, labels = k_means(data, k=3) plot_clusters(data, labels, centers) ``` 代码中首先生成了一个带有3个簇的数据集,然后通过k_means()函数实现了K-means算法的聚类过程,最后使用plot_clusters()函数将聚类结果可视化展示了出来。 K-means算法的python实现代码较为简单,但需要注意一些细节问题。例如,在实现距离计算时,我们可以使用numpy中的sum()函数,但此时需要指定axis参数,否则无法正确计算每个样本距离每个中心点的距离;在更中心点位置时,需要注意对样本进行筛选以避免无效计算;同时,在K-means算法的循环过程中,需要判断聚类是否已经收敛,并根据需要设置收敛的迭代次数。 <h3>回答3:</h3><br/>k-means算法是一种常用的聚类算法,在数据挖掘中得到广泛应用。它的原理简单,是一种迭代算法,不断将数据点分配到离它最近的中心点所在的簇,然后重计算每个簇的中心点,直到满足停止条件为止。以下是k-means算法的python代码。 首先,需要导入必要的库和数据集。常用的数据集有iris、wine、digits等。在这里以iris数据集为例。代码如下: ```python from sklearn.datasets import load_iris from sklearn.cluster import KMeans iris = load_iris() X = iris.data ``` 确定簇的个数k,本例中将k设为3。 ```python k = 3 ``` 实例化k-means算法模型,并设置参数。n_clusters为簇的个数,init表示初始化的方法,k-means++为默认值,max_iter表示最大的迭代次数,n_init为选取不同的初始化方式运行k-means算法的次数,verbose表示是否输出冗长的进度信息。 ```python kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=100, n_init=10, verbose=0) ``` 训练模型并进行预测。 ```python pred = kmeans.fit_predict(X) ``` 最后,可视化聚类结果。 ```python import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D # 以三个特征为坐标轴画图 fig = plt.figure(1, figsize=(8, 6)) ax = Axes3D(fig, elev=-150, azim=110) ax.scatter(X[:, 0], X[:, 1], X[:, 2], c=pred, cmap=plt.cm.Set1, edgecolor='k', s=40) ax.set_title("iris 3D clustering") ax.set_xlabel("feature 1") ax.w_xaxis.set_ticklabels([]) ax.set_ylabel("feature 2") ax.w_yaxis.set_ticklabels([]) ax.set_zlabel("feature 3") ax.w_zaxis.set_ticklabels([]) plt.show() ``` 以上是k-means算法的python代码,在实际应用中,可以根据数据集的特点选择合适的簇数和参数,得到更好的聚类效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值