2020年滴春天,我认识了“飞桨PaddlePaddle”

----飞桨深度学习学院-Python小白逆袭大神的学习总结

2020年4月22号的一天,忽然收到一条短信。
百度飞桨短信
定睛一看,正好适合我这样的python小白呀
抓紧吃饭,坐在电脑前,等待上课了。。
等待上课中
课程表如下:
课节
共7课节
课节1: 前置课程
课节2: Day1-人工智能概述与入门基础
课节3: Day2-Python进阶
课节4: Day3-人工智能常用Python库
课节5: Day4-PaddleHub体验与应用
课节6: Day5-EasyDL体验与作业发布
课节7: Day6-PaddleHub创意赛发布
飞桨深度学习学院
开课了!!!
前置课程一带而过。。。(人工智大使、所趋势不可挡。。。.)
紧接着是python语法的复习

首先是,输出 一个带格式的9*9 乘法口诀表:
我的代码如下:

def table():
    #在这里写下您的乘法口诀表代码吧!
    for a in range(1,10):
        for b in range(1,10):
            if a>=b:                
                print(b,'*',a,'=',a*b,sep='',end='\t')
        print("")


if __name__ == '__main__':
    table()

接下来是我不太会的,python文件查找:
查了很多资料后,我的代码如下:


#导入OS模块
import os
#待搜索的目录路径
path = "Day1-homework"
#待搜索的名称
filename = "2020"
#定义保存结果的数组
result = []

def findfiles():
    for (root, dirs, files) in os.walk(path):   
        for f in files:                       
            if os.path.join(root,f).find(filename)>=0:
                result.append(os.path.join(root,f)) 
    for m,n in enumerate(result):
        print("[",m+1,','," '",n,"'","]",sep='')   

if __name__ == '__main__':
    findfiles()

第一天的课就结束了。。

第二天,课是复习python爬虫-----《青春有你2》选手信息爬取
这节课我认识,原来的不会的“BeautifulSoup”库,
这才发现“BeautifulSoup”库比正则好用多了。

作业部分如下:

def crawl_pic_urls():
    '''
    爬取每个选手的百度百科图片,并保存
    ''' 
    with open('work/'+ today + '.json', 'r', encoding='UTF-8') as file:
         json_array = json.loads(file.read())
         
    headers = { 
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36' 
     }
    #print(type(json_array))
   
    for star in json_array:
        
        name = star['name']
        link = star['link']

        #!!!请在以下完成对每个选手图片的爬取,将所有图片url存储在一个列表pic_urls中!!!
        
        #print (name)
        #print (link)
        response = requests.get(link,headers=headers)
        #print(response.text)
        bs = BeautifulSoup(str(response.text),'lxml')
       
        url=bs.select('.summary-pic a')[0].get('href')
        url='https://baike.baidu.com' + url
        #print(url)
        response = requests.get(url,headers=headers)
        #print(response.text)

        bs = BeautifulSoup(str(response.text),'lxml')
        pic_html=bs.select('.pic-list img ')
      
        #print(pic_list_html)

        pic_urls=[]
        for pic_html in pic_html:
            pic_url=pic_html.get('src')
            #print(pic_url)
            pic_urls.append(pic_url)
    
        #!!!根据图片链接列表pic_urls, 下载所有图片,保存在以name命名的文件夹中!!!
        down_pic(name,pic_urls)

第三天的讲的是:《青春有你2》选手数据分析
我学会了绘制饼状图。
作业部分代码如下:

import matplotlib.pyplot as plt
import numpy as np 
import json
import matplotlib.font_manager as font_manager
import pandas as pd

%matplotlib inline
df = pd.read_json('data/data31557/20200422.json')
weights=df['weight']
#print(type(weights.values))

arrs=weights.values
for i in range(len(arrs)):   
    arrs[i]=float(arrs[i][0:-2])    
#print(arrs)
labels='<45kg','45-50kg','50-55kg','>55kg'
bin=[0,45,50,55,100]
sel=pd.cut(arrs,bin,labels = labels)
#print(sel)
sizes=pd.value_counts(sel)
#print(sizes)
labels = sizes.index 

#print(sizes)
explode=(0.1,0.1, 0.1,0.1)
#print(sizes,'\n',explode,'\n',labels,'\n')

fig1,ax1=plt.subplots()
ax1.pie(sizes,
        explode=explode,
        labels=labels,
        autopct='%1.1f%%',
        shadow=True,
        startangle=90)
ax1.axis('equal')
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.title('''《青春有你2》参赛选手体重分布图''',fontsize = 16)

plt.savefig('/home/aistudio/work/result/b2.jpg')
plt.show()

未完待续。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值