python高级在线题目训练-第二套·主观题_请编写python代码实现下列要求。给定一个字符串,从头部或尾部截取指定数量的字符

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

print("尾部cut翻转 : ", (last_right + last_left))

reStr(“我拥有一个世界。”, 3)

reStr(input(), int(input()))
“”"
输入示例:
我拥有一个个世界
2
输出示例:
头部cut翻转 : 有一个个世界我拥
尾部cut翻转 : 世界我拥有一个个
“”"


### 3、请简述K-Means聚类算法的流程。



> 
> 1、从数据中选择k个对象作为初始聚类中心;
> 
> 
> 2、计算每个聚类对象到聚类中心的距离来划分;
> 
> 
> 3、再次计算每个聚类中心;
> 
> 
> 4、计算标准测度函数,之道达到最大迭代次数,则停止,否则,继续操作。
> 
> 
> 




---


下面是一些理论,可以略过:


   K-means也是聚类算法中最简单的一种了,但是里面包含的思想却是不一般。最早我使用并实现这个算法是在学习韩爷爷那本数据挖掘的书中,那本书比较注重应用。看了Andrew Ng的这个讲义后才有些明白K-means后面包含的EM思想。


     聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y的,也就是说样例中已经给出了样例的分类。而聚类的样本中却没有给定y,只有特征x,比如假设宇宙中的星星可以表示成三维空间中的点集


![](https://img-blog.csdnimg.cn/img_convert/69cebde45dc7c513a9ee7bf39b3c43af.png)


。聚类的目的是找到每个样本x潜在的类别y,并将同类别y的样本x放在一起。比如上面的星星,聚类后结果是一个个星团,星团里面的点相互距离比较近,星团间的星星距离就比较远了。


 在聚类问题中,给我们的训练样本是


![](https://img-blog.csdnimg.cn/img_convert/eabcbacbb98de2db62f2806f90b68d38.png)


,每个,没有了y。


     K-means算法是将样本聚类成k个簇(cluster),具体算法描述如下:


1、 随机选取k个聚类质心点(cluster centroids)为![](https://img-blog.csdnimg.cn/img_convert/4beaf9009f8dd5c8cb4aa9243e060198.png)。


2、 重复下面过程直到收敛 {


               对于每一个样例i,计算其应该属于的类


               ![](https://img-blog.csdnimg.cn/img_convert/bf38c1161499ef8bee88e17b05963d1d.png)


               对于每一个类j,重新计算该类的质心


               ![](https://img-blog.csdnimg.cn/img_convert/a629786758901fea0b0c24fd3aa39adc.png)


}


     K是我们事先给定的聚类数,


![](https://img-blog.csdnimg.cn/img_convert/291a1e4f8fbe1d2f66e54aa32deb8579.png)


代表样例i与k个类中距离最近的那个类,的值是1到k中的一个。质心代表我们对属于同一个类的样本中心点的猜测,拿星团模型来解释就是要将所有的星星聚成k个星团,首先随机选取k个宇宙中的点(或者k个星星)作为k个星团的质心,然后第一步对于每一个星星计算其到k个质心中每一个的距离,然后选取距离最近的那个星团作为,这样经过第一步每一个星星都有了所属的星团;第二步对于每一个星团,重新计算它的质心(对里面所有的星星坐标求平均)。重复迭代第一步和第二步直到质心不变或者变化很小。


     下图展示了对n个样本点进行K-means聚类的效果,这里k取2。


![](https://img-blog.csdnimg.cn/76c76e37c0d14c3aa5ff0b9ce7ced2ed.png)


K-means面对的第一个问题是如何保证收敛,前面的算法中强调结束条件就是收敛,可以证明的是K-means完全可以保证收敛性。下面我们定性的描述一下收敛性,我们定义畸变函数(distortion function)如下:


     


![](https://img-blog.csdnimg.cn/img_convert/dba3e81963665a1aabd3a74e866a4270.png)


     J函数表示每个样本点到其质心的距离平方和。K-means是要将J调整到最小。假设当前J没有达到最小值,那么首先可以固定每个类的质心


![](https://img-blog.csdnimg.cn/img_convert/fba8c32712e8fb24ac4e5360e777bf52.png)


,调整每个样例的所属的类别来让J函数减少,同样,固定,调整每个类的质心也可以使J减小。这两个过程就是内循环中使J单调递减的过程。当J递减到最小时,和c也同时收敛。(在理论上,可以有多组不同的和c值能够使得J取得最小值,但这种现象实际上很少见)。


     由于畸变函数J是非凸函数,意味着我们不能保证取得的最小值是全局最小值,也就是说k-means对质心初始位置的选取比较感冒,但一般情况下k-means达到的局部最优已经满足需求。但如果你怕陷入局部最优,那么可以选取不同的初始值跑多遍k-means,然后取其中最小的J对应的


![](https://img-blog.csdnimg.cn/img_convert/991a8b2a776cb5fbf1f0279dc72d5104.png)




![img](https://img-blog.csdnimg.cn/img_convert/57dd882ccc70cc1766885571c1533114.png)
![img](https://img-blog.csdnimg.cn/img_convert/18d211d40420eae45393fd161622132d.png)

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

(https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值