def truncated_normal ( mean = 0 , sd = 1 , low = 0 , upp = 10 , type = int ):
return truncnorm (
( low - mean ) / sd , ( upp - mean ) / sd , loc = mean , scale = sd )
def truncated_normal_floats ( mean = 0 , sd = 1 , low = 0 , upp = 10 , num = 100 ):
res = truncated_normal ( mean = mean , sd = sd , low = low , upp = upp )
返回 res 。RVS (NUM )
def truncated_normal_ints ( mean = 0 , sd = 1 , low = 0 , upp = 10 , num = 100 ):
res = truncated_normal ( mean = mean , sd = sd , low = low , upp = upp )
返回 res 。RVS (NUM )。类型( np .uint8 )
#项为每个花类的数目:
number_of_items_per_class = [ 190 , 205 , 230 , 170 ]
花 = {}
#FLOS Pythonem:
NUMBER_OF_ITEMS = number_of_items_per_class [ 0 ]
的红色 = truncated_normal_ints (平均值= 254 , SD = 18 , 低= 235 , upp = 256 ,
num = number_of_items )
果岭 = truncated_normal_ints (平均值= 107 , SD = 11 , 低= 88 , UPP = 127 ,
NUM = NUMBER_OF_ITEMS )
蓝调 = truncated_normal_ints (平均值= 0 , SD = 15 , 低= 0 , UPP = 20 ,
NUM = NUMBER_OF_ITEMS )
calyx_dia = truncated_normal_floats ( 3.8, 0.3 , 3.4 , 4.2 ,
num = number_of_items )
data = np . column_stack (( reds , greens , blues , calyx_dia ))
花[ “flos_pythonem” ] = 数据
#FLOS爪哇:
NUMBER_OF_ITEMS = number_of_items_per_class [ 1 ]
的红色 = truncated_normal_ints (平均值= 245 , SD = 17 , 低= 226 , UPP = 256 ,
NUM = NUMBER_OF_ITEMS )
果岭 = truncated_normal_ints (平均值= 107 , SD = 11 , 低= 88 , upp = 127 ,
NUM = NUMBER_OF_ITEMS )
蓝调 = truncated_normal_ints (平均值= 0 , SD = 10 , 低= 0 , UPP = 20 ,
NUM = NUMBER_OF_ITEMS )
calyx_dia = truncated_normal_floats (3.3 , 0.3 , 3.0 , 3.5 ,
NUM = NUMBER_OF_ITEMS )
数据 = NP 。column_stack ((红色, greens , blues , calyx_dia ))
花[ “flos_java” ] = 数据
#FLOS爪哇:
NUMBER_OF_ITEMS = number_of_items_per_class [ 2 ]
红色 = truncated_normal_ints (平均值= 206 , SD = 17 , 低= 175 , UPP = 238 ,
NUM = NUMBER_OF_ITEMS )
果岭 = truncated_normal_ints (平均= 99 , SD = 14 , 低= 80 , upp = 120 ,
NUM = NUMBER_OF_ITEMS )
蓝调 = truncated_normal_ints (平均值= 1 , SD = 5 , 低= 0 , UPP = 12 ,
NUM = NUMBER_OF_ITEMS )
calyx_dia = truncated_normal_floats (4.1 , 0.3 , 3.8 , 4.4 ,
NUM = NUMBER_OF_ITEMS )
数据 = NP 。column_stack ((红色, greens , blues , calyx_dia ))
花[ “flos_margarita” ] = 数据
#FLOS artificialis:
NUMBER_OF_ITEMS = number_of_items_per_class [ 3 ]
的红色 = truncated_normal_ints (平均值= 255 , SD = 8 , 低= 2245 , UPP = 2255 ,
NUM = NUMBER_OF_ITEMS )
果岭 = truncated_normal_ints (平均值= 254 , SD = 10 , 低= 240 , 向上= 255,
NUM = NUMBER_OF_ITEMS )
蓝调 = truncated_normal_ints (平均值= 101 , SD = 5 , 低= 90 , UPP = 112 ,
NUM = NUMBER_OF_ITEMS )
calyx_dia = truncated_normal_floats (2.9 , 0.4 , 2.4 , 3.5 ,
NUM = NUMBER_OF_ITEMS )
数据 = NP 。column_stack ((reds , greens , blues , calyx_dia ))
花[ “flos_artificialis” ] = 数据
数据 = np 。连接((花[ “flos_pythonem” ],
花[ “flos_java” ],
花[ “flos_margarita” ],
花[ “flos_artificialis” ]
), 轴= 0 )
# 分配标签
target = np . zeros ( sum ( number_of_items_per_class )) # 4 朵花
previous_end = 0
for i in range ( 1 , 5 ):
num = number_of_items_per_class [ i - 1 ]
beg = previous_end
target [ beg : beg + num ] += i
previous_end = beg + num
conc_data = np . 连接(( data , target . reshape ( target . shape [ 0 ], 1 )),
axis = 1 )
NP . savetxt ( “data/strange_flowers.txt” , conc_data , fmt = " %2.2f " ,)
导入 matplotlib.pyplot 作为 plt
target_names = 列表(花朵。键())
feature_names = [ ‘红’ , ‘绿色’ , ‘蓝’ , ‘花萼’ ]
ñ = 4
无花果, 斧 = PLT 。子图( n , n , figsize = ( 16 , 16 ))
颜色 = [ ‘蓝色’ 、 ‘红色’ 、 ‘绿色’ 、 ‘黄色’ ]
for x in range ( n ):
for y in range ( n ):
xname = feature_names [ x ]
yname = feature_names [ y ]
for color_ind in range ( len ( target_names )):
ax [ x , y ] 。分散(数据[目标== color_ind , x ],
数据[ target == color_ind , y ],
label = target_names [ color_ind ],
c = colors [ color_ind ])
轴[ x , y ] 。set_xlabel ( xname )
ax [ x , y ] 。set_ylabel ( yname )
ax [ x , y ] 。图例(loc = ‘左上’ )
PLT 。显示()
使用 Scikit-Learn 生成合成数据
使用 Scikit-Learn 的可能性来创建合成数据要容易得多。
sklearn 中可用的功能可以分为
-
用于分类和聚类的生成器
-
用于创建回归数据的生成器
-
流形学习生成器
-
分解生成器
分类和聚类生成器
我们先从功能make_blobs
的sklearn.datasets
打造“斑点”状数据分布。通过将 的值设置centers
为n_classes
,我们确定了 blob 的数量,即集群。n_samples
对应于在集群中平均分配的点总数。如果random_state
没有设置,我们每次调用函数都会有随机结果。我们将一个 int 传递给这个参数,以便在多个函数调用中重现输出。
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
n_classes = 4
数据, 标签 = make_blobs (n_samples = 1000 ,
中心= n_classes ,
random_state = 100 )
标签[: 7 ]
输出:
数组([1, 3, 1, 3, 1, 3, 2])
我们将使用 matplotlib 可视化先前创建的 blob custers:
图, ax = plt 。子图()
颜色 = (‘绿色’ , ‘橙色’ , ‘蓝’ , “粉红色” )
为 标签 在 范围(n_classes ):
斧。分散( x =数据[标签==标签, 0 ],
y =数据[标签==标签, 1 ],
c =颜色[标签],
s = 40 ,
标签=标签)
斧头。设置(xlabel = ‘X’ ,
ylabel = ‘Y’ ,
title = ‘Blob 示例’ )
斧头。图例(loc = ‘右上角’ )
输出:
<matplotlib.legend.Legend 在 0x7f1c3f9d0e80>
在前面的例子中,blob 的中心是随机选择的。在以下示例中,我们明确设置了 blob 的中心。我们创建一个包含中心点的列表并将其传递给参数centers
:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
中心 = [[ 2 , 3 ], [ 4 , 5 ], [ 7 , 9 ]]
数据, 标签 = make_blobs (N_SAMPLES次= 1000 ,
中心= NP 。阵列(中心),
random_state = 1 )
标签[: 7 ]
输出:
数组([0, 1, 1, 0, 2, 2, 2])
让我们看看之前创建的 blob 集群:
图, ax = plt 。子图()
颜色 = (‘绿’ , ‘橙’ , ‘蓝’ )
为 标签 的 范围(len个(中心)):
斧。分散( x =数据[标签==标签, 0 ],
y =数据[标签==标签, 1 ],
c =颜色[标签],
s = 40 ,
标签=标签)
斧头。设置(xlabel = ‘X’ ,
ylabel = ‘Y’ ,
title = ‘Blob 示例’ )
斧头。图例(loc = ‘右上角’ )
输出:
<matplotlib.legend.Legend 在 0x7f1c3f363370>
通常,您希望将人工创建的数据集保存在文件中。为此,我们可以使用savetxt
numpy 中的函数。在我们这样做之前,我们必须重新排列我们的数据。每行都应包含数据和标签:
将 numpy 导入****为 np
标签 = 标签。重塑((标签。形状[ 0 ],1 ))
all_data = NP 。连接((数据, 标签), 轴= 1 )
all_data [:7 ]
输出:
数组([[ 1.72415394, 4.22895559, 0. ],
[ 4.16466507, 5.77817418, 1. ],
[ 4.51441156, 4.98274913, 1. ],
[ 1.49102772, 2.83351405, 0. ],
[ 6.0386362 , 7.57298437, 2. ],
[ 5.61044976, 9.83428321, 2. ],
[ 5.69202866, 10.47239631, 2. ]])
对于某些人来说,理解 reshape 和 concatenate 的组合可能很复杂。因此,您可以在以下代码中看到一个极其简单的示例:
将 numpy 导入****为 np
a = np 。数组( [[ 1 , 2 ], [ 3 , 4 ]])
b = np 。数组( [ 5 , 6 ])
b = b 。reshape (( b . shape [ 0 ], 1 ))
打印( b )
x = np 。连接( ( a , b ), 轴= 1 )
x
输出:
[[5]
[6]]
数组([[1, 2, 5],
[3, 4, 6]])
我们使用numpy函数savetxt
来保存数据。不要担心这个奇怪的名字,它只是为了好玩,原因很快就会清楚:
NP . savetxt ( “squirrels.txt” ,
all_data ,
fmt = [ ’ %.3f ’ , ’ %.3f ’ , ’ %1d ’ ])
all_data [: 10 ]
输出:
数组([[ 1.72415394, 4.22895559, 0. ],
[ 4.16466507, 5.77817418, 1. ],
[ 4.51441156, 4.98274913, 1. ],
[ 1.49102772, 2.83351405, 0. ],
[ 6.0386362 , 7.57298437, 2. ],
[ 5.61044976, 9.83428321, 2. ],
[ 5.69202866, 10.47239631, 2. ],
[ 6.14017298, 8.56209179, 2. ],
[ 2.97620068, 5.56776474, 1. ],
[ 8.27980017, 8.54824406, 2. ]])
读取数据并将其转换回“数据”和“标签”
我们将展示现在,如何在数据再次读取以及如何将其拆分成data
和labels
再次:
文件数据 = np 。loadtxt ( “squirrels.txt” )
数据 = file_data [:,:- 1 ]
标签 = file_data [:,2 :]
标签 = 标签。重塑((标签。形状[ 0 ]))
我们将数据文件称为squirrels.txt
,因为我们想象了一种生活在撒哈拉沙漠中的奇怪动物。x 值代表动物的夜视能力,y 值对应毛皮的颜色,从浅褐色变为黑色。我们有3种松鼠,0、1和2。(注意我们的松鼠是想象中的松鼠,与真正的撒哈拉松鼠没有任何关系!)
导入 matplotlib.pyplot 作为 plt
颜色 = (“绿色” 、 “红色” 、 “蓝色” 、 “洋红色” 、 “黄色” 、 “青色” )
n_classes = 3
图, ax = plt 。副区()
为 n_class 在 范围(0 , n_classes ):
斧。分散(数据[标签== n_class , 0 ], 数据[标签== n_class , 1 ],
c =颜色[ n_class ], s = 10 , 标签= str (n_class ))
斧头。set ( xlabel = ‘Night Vision’ ,
ylabel = '毛色从浅褐色到黑色, 0 到 10 ’ ,
title = ‘Sahara Virtual Squirrel’ )
斧头。图例(loc = ‘右上角’ )
输出:
<matplotlib.legend.Legend 在 0x7f1c3f2dfcd0>
我们将在以下代码中训练我们的人工数据:
从 sklearn.model_selection 导入 train_test_split
data_sets = train_test_split ( data ,
labels ,
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
文末有福利领取哦~
👉一、Python所有方向的学习路线
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
👉二、Python必备开发工具
👉三、Python视频合集
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
👉 四、实战案例
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(文末领读者福利)
👉五、Python练习题
检查学习结果。
👉六、面试资料
我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
👉因篇幅有限,仅展示部分资料,这份完整版的Python全套学习资料已经上传
一个人可以走的很快,但一群人才能走的更远。如果你从事以下工作或对以下感兴趣,欢迎戳这里加入程序员的圈子,让我们一起学习成长!
AI人工智能、Android移动开发、AIGC大模型、C C#、Go语言、Java、Linux运维、云计算、MySQL、PMP、网络安全、Python爬虫、UE5、UI设计、Unity3D、Web前端开发、产品经理、车载开发、大数据、鸿蒙、计算机网络、嵌入式物联网、软件测试、数据结构与算法、音视频开发、Flutter、IOS开发、PHP开发、.NET、安卓逆向、云计算
da3bae5b6ffb9c07ec7.png)
👉五、Python练习题
检查学习结果。
👉六、面试资料
我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
👉因篇幅有限,仅展示部分资料,这份完整版的Python全套学习资料已经上传
一个人可以走的很快,但一群人才能走的更远。如果你从事以下工作或对以下感兴趣,欢迎戳这里加入程序员的圈子,让我们一起学习成长!
AI人工智能、Android移动开发、AIGC大模型、C C#、Go语言、Java、Linux运维、云计算、MySQL、PMP、网络安全、Python爬虫、UE5、UI设计、Unity3D、Web前端开发、产品经理、车载开发、大数据、鸿蒙、计算机网络、嵌入式物联网、软件测试、数据结构与算法、音视频开发、Flutter、IOS开发、PHP开发、.NET、安卓逆向、云计算