- 博客(6)
- 收藏
- 关注
原创 jupyter 插件
jupyter 里面的Autopep8用不了,现实未定义Autopep8,但是又有安装了解决方法:电脑打开cmd执行以下代码可以安装jupyter notebook扩展:pip install jupyter ipywidgets autopep8 jupyter_contrib_nbextensions jupyter_nbextensions_configuratorjupyter...
2019-10-24 15:21:33 518 1
原创 python计算三角形面积
a = float(input())b = float(input())c = float(input())k = (a+b+c)/2S = (k*(k-a)*(k-b)*(k-c))**0.5print(S)
2019-10-23 15:08:45 2636
原创 python计算平方根三种方法
第一种a = float(input())x = a**0.5print(x)第二种import numpy as npa = float(input())x = np.sqrt(a)print(x)第三种import matha = float(input())x = math.sqrt(a)print(x)
2019-10-23 15:06:30 8081
原创 python冒泡排序
def BubbleSort(V): n = len(V) # 遍历所有的元素 for i in range(n): for j in range(n-i-1): if V[j] > V[j+1]: V[j], V[j+1] = V[j+1], V[j] # 排序 V = [(...
2019-10-23 15:03:10 127
原创 Python二次方程
以下实例为通过用户输入数字,并计算二次方程:二次方程式 ax**2 + bx + c = 0a、b、c 用户提供,为实数,a ≠ 0方法一a = float(input())b = float(input())c = float(input())d = b**2-4*a*cx1 = (-b-d**0.5)/(2*a)x2 = (-b+d**0.5)/(2*a)print("...
2019-10-23 14:42:43 736
原创 机器学习常见优化方法(Optimizer)SGD,Momentum,Adagard,Adam原理
SGD为随机梯度下降每次迭代计算数据集的mini-batch的梯度,然后对参数进行更新。Momentum:“冲量”这个概念源自于物理中的力学,表示力对时间的积累效应。参考了物理中动量的概念,前几次的梯度也会参与到当前的计算中,但是前几轮的梯度叠加在当前计算中会有一定的衰减。Adagard:(adaptive gradient)自适应梯度算法,是一种改进的随机梯度下降算法在训练的过程中可...
2019-10-23 14:31:56 1763
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人