python大作业报告_2018-12-25 python大作业

-- coding: utf-8 --

"""

Created on Sun Dec 23 01:10:07 2018

@author: NickyChu

"""

import numpy as np

import pandas as pd

import matplotlib.pyplot as plt

from sklearn import svm

from sklearn.linear_model import LogisticRegression as LR

from sklearn.linear_model import RandomizedLogisticRegression as RLR

In[121]:

df = pd.read_csv('Train.csv',header=None)#使用header选项让列名为从0开始的数列

df_new = pd.read_csv('Test.csv',header=None)

print(df.duplicated())#检查重复项

df = df.drop_duplicates()#清洗重复项

df

In[163]:

my_matrix = df

data_x=my_matrix.iloc[:,0:-1]

data_y=my_matrix.iloc[:,-1]

In[123]:

rlr = RLR() #建立随机逻辑回归模型,筛选变量

rlr.fit(data_x, data_y) #训练模型

array1 = rlr.get_support() #获取特征筛选结果,也可以通过.scores_方法获取各个特征的分数

score1 = rlr.scores_

score1

In[161]:

i = 1

for name in array1:

if name == True:

print("第{0}个特征值为有用特征值".format(i))

i = i+1

In[162]:

筛选特征值

data_x.columns = score1

df_new.columns = score1

todrop = [0]

try:

data_x.drop(todrop, inplace=True, axis=1)

df_new.drop(todrop, inplace=True, axis=1)

except:

print("No need to drop")

data_x

df_new

In[]

分组

from sklearn.cross_validation import train_test_split

from sklearn.metrics import confusion_matrix, classification_report, roc_curve, auc

from sklearn.grid_search import GridSearchCV

X1_train, X1_test, y1_train, y1_test = train_test_split(data_x,data_y,test_size=0.33)

组内预测

lr=LR(C = 1.5, penalty = 'l1',class_weight='balanced')#逻辑回归模型

lr.fit(X1_train,y1_train)#train组内模拟

print('逻辑回归模型训练结束')

print('模型的平均正确率:%s' % lr.score(X1_train,y1_train))#输出模型平均正确率(不准确)

print(lr.get_params)#输出相关信息

y1_pre_val = lr.predict(X1_test)#train组内的预测函数

输出报告

print("Classification report (training):\n {0}".format(classification_report(y1_test,y1_pre_val,target_names=["0","1"])))

让他去预测一下test组的

y_val_old = lr.predict(df_new)

print(lr.get_params)#输出相关信息

In[]

parameter tuning

运用穷尽网格搜索

from sklearn.grid_search import GridSearchCV

lr_clf_tuned = LR()

tuned_parameters=[{'penalty':['l1','l2'],

'C':[0.01,0.05,0.1,0.5,1,1.1,1.2,1.3,1.4,1.5,10],

'solver':['liblinear'],

'multi_class':['ovr']},

{'penalty':['l2'],

'C':[0.01,0.05,0.1,0.5,1,1.1,1.2,1.3,1.4,1.5,10],

'solver':['lbfgs'],

'multi_class':['ovr','multinomial']}]

lr_clf_params = {"penalty": ["l1", "l2"], "C": [1, 1.1,1.2,1.3,1.4,1.5, 1.7, 2] }

lr_clf_cv = GridSearchCV(lr_clf_tuned, tuned_parameters, cv=5)

lr_clf_cv.fit(X1_train,y1_train)

print(lr_clf_cv.best_params_)

In[]

from sklearn.ensemble import RandomForestClassifier

lr=LR( C = 10, multi_class='ovr', penalty = 'l1', solver='lbfgs')#逻辑回归模型

lr.fit(X1_train,y1_train)

print('逻辑回归模型训练结束')

print('模型的平均正确率:%s' % lr.score(X1_train,y1_train))

print(lr.get_params)

y1_pre_val = lr.predict(X1_test)#train组内的预测函数

输出报告

print("Classification report (training):\n {0}".format(classification_report(y1_test,y1_pre_val,target_names=["0","1"])))

让他去预测一下test组的

y_val_new = lr.predict(df_new)

print(lr.get_params)#输出相关信息

In[]

寻找最优Roc值

from sklearn.metrics import confusion_matrix, classification_report, roc_curve, auc

from sklearn.metrics import roc_auc_score

def FindtheC():

score = []

aucarr = []

Conclu = []

for i in range(1,100):

i = 64

play = i/1000

for j in range(1,100):

j = 67时 达到 0.699的AUC

Canshu = j

lr=LR(C = Canshu, multi_class='ovr', penalty = 'l2', solver='liblinear',class_weight={0: play, 1: 1-play})#逻辑回归模型

lr.fit(X1_train,y1_train)

print('逻辑回归模型训练结束')

print('模型的平均正确率:%s' % lr.score(X1_train,y1_train))

print(lr.get_params)

y1_pre_test1 = lr.predict(X1_test)#预测函数

auc1 = "ROC是{0}".format(roc_auc_score(y1_test, y1_pre_test1))

print(auc1)

aucarr.append(roc_auc_score(y1_test, y1_pre_test1))

Conclu.append([auc1,Canshu])

print(max(aucarr))

In[]

pre_probs = lr.predict_log_proba(data_x)

print(pre_probs[:,1])

print(pre_probs[:,0])

In[]

from sklearn.ensemble import RandomForestRegressor

from sklearn.linear_model import LogisticRegression

参数调整

x_train = X1_train

y_train = y1_train

x_test = X1_test

y_test = y1_test

def show_accuracy(a, b, tip):

acc = a.ravel() == b.ravel()

acc_rate = 100 * float(acc.sum()) / a.size

return acc_rate

Maincode

lr = LogisticRegression(penalty='l2')

lr.fit(x_train, y_train)

y_hat = lr.predict(x_test)

lr_rate = show_accuracy(y_hat, y_test, 'Logistic回归 ')

print(roc_auc_score(y_test, y_hat))

随机森林 n_estimators:决策树的个数,越多越好,不过值越大,性能就会越差,至少100

rfc = RandomForestClassifier(n_estimators=100)

rfc.fit(x_train, y_train)

y_hat = rfc.predict(x_test)

rfc_rate = show_accuracy(y_hat, y_test, '随机森林 ')

print(roc_auc_score(y_test, y_hat))

In[]

XGBoost

import xgboost as xgb

data_train = xgb.DMatrix(x_train, label=y_train)

data_test = xgb.DMatrix(x_test, label=y_test)

watch_list = [(data_test, 'eval'), (data_train, 'train')]

param = {'max_depth': 6, 'eta': 0.8, 'silent': 1, 'objective': 'binary:logistic'}

bst = xgb.train(param, data_train, num_boost_round=100, evals=watch_list)

y_hat = bst.predict(data_test)

y_hat[y_hat > 0.5] = 1

y_hat[~(y_hat > 0.5)] = 0

xgb_rate = show_accuracy(y_hat, y_test, 'XGBoost ')

print(roc_auc_score(y_test, y_hat))

In[]

ROC图所需参数

y1 = lr.predict_proba(data_x)

y1_valid_score_lr1 = lr.predict_proba(data_x)

fpr_lr1, tpr_lr1, thresholds_lr1 = roc_curve(data_y, y1_valid_score_lr1[:, 1])

roc_auc_lr1 = auc(fpr_lr1, tpr_lr1)

作ROC图

plt.plot(fpr_lr1, tpr_lr1, lw=2, alpha=.6)

plt.plot([0, 1], [0, 1], lw=2, linestyle="--")

plt.xlim([0, 1])

plt.ylim([0, 1.05])

plt.xlabel("FPR")

plt.ylabel("TPR")

plt.title("ROC curve")

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一份可能的大作业实践方案,可以供您参考: ## 1. 爬虫部分 ### 1.1 需求分析 根据题目要求,需要编写一个爬虫程序,爬取指定网站的数据。在爬取数据的过程中,需要做到: - 发送请求,获取网页内容 - 解析网页内容,提取所需数据 - 存储数据,方便后续的数据分析和可视化操作 ### 1.2 技术选型 根据需求分析,可以发现,需要使用 Python 编写爬虫程序。Python 有很多第三方库可以用来编写爬虫,比如 BeautifulSoup、Scrapy、urllib、requests 等等。这里我们选择使用 urllib 和 re 两个标准库来编写爬虫程序。 ### 1.3 实现步骤 首先,需要确定爬取的目标网站和要爬取的数据。这里我们选择爬取豆瓣电影 Top250 的电影名称、评分和简介等信息。 其次,需要发送请求,获取网页内容。可以使用 urllib 发送请求,并设置请求头模拟浏览器访问。 ```python import urllib.request # 设置请求头,模拟浏览器访问 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } # 豆瓣电影 Top250 的 url url = 'https://movie.douban.com/top250' # 发送请求,获取网页内容 try: request = urllib.request.Request(url, headers=headers) response = urllib.request.urlopen(request) content = response.read().decode('utf-8') except Exception as e: print(e) ``` 接着,需要解析网页内容,提取所需数据。可以使用 re 正则表达式来解析网页内容,提取电影名称、评分和简介等信息。 ```python import re # 解析网页内容,获取电影信息 pattern = re.compile(r'<span class="title">(.*?)</span>.*?<span class="rating_num" property="v:average">(.*?)</span>.*?<span class="inq">(.*?)</span>', re.S) movies = re.findall(pattern, content) ``` 然后,需要存储数据,方便后续的数据分析和可视化操作。可以将数据存储到文本文件中,或者使用数据库存储数据。 ```python # 将电影信息保存到文件 with open('movies.txt', 'w', encoding='utf-8') as f: for movie in movies: f.write('电影名称:' + movie[0] + '\n') f.write('评分:' + movie[1] + '\n') f.write('简介:' + movie[2] + '\n\n') ``` ## 2. 数据分析部分 ### 2.1 需求分析 在完成爬虫程序之后,需要对爬取到的数据进行分析。在数据分析的过程中,需要做到: - 统计电影的评分分布情况 - 统计电影的类型分布情况 - 统计电影的上映年份分布情况 ### 2.2 技术选型 根据需求分析,需要使用 Python 对数据进行统计和分析。Python 中有很多第三方库可以用来进行数据分析,比如 pandas、numpy、matplotlib 等等。这里我们选择使用 pandas 和 matplotlib 两个库来进行数据分析和可视化。 ### 2.3 实现步骤 首先,需要读取爬取到的数据。可以使用 pandas 库读取文本文件中的数据。 ```python import pandas as pd # 读取数据 data = pd.read_csv('movies.txt', delimiter=':', header=None, names=['类别', '内容']) ``` 接着,需要将电影评分转换为数字类型,并统计电影的评分分布情况。可以使用 pandas 库的 describe() 方法和 matplotlib 库的 hist() 方法来实现。 ```python import matplotlib.pyplot as plt # 将电影评分转换为数字类型 data['内容'] = pd.to_numeric(data['内容']) # 统计电影的评分分布情况 print(data['内容'].describe()) # 可视化电影的评分分布情况 plt.hist(data['内容'], bins=10, color='steelblue', edgecolor='black') plt.xlabel('评分') plt.ylabel('电影数量') plt.title('电影评分分布情况') plt.show() ``` 然后,需要统计电影的类型分布情况。可以使用 pandas 库的 str.contains() 方法和 value_counts() 方法来实现。 ```python # 统计电影的类型分布情况 types = ['剧情', '喜剧', '动作', '爱情', '科幻', '动画', '悬疑', '惊悚', '恐怖', '纪录片', '短片', '情色', '同性', '音乐', '歌舞', '家庭', '儿童', '传记', '历史', '战争', '犯罪', '西部', '奇幻', '冒险', '灾难', '武侠', '古装', '运动', '黑色电影'] for t in types: print(t + '电影数量:' + str(data[data['类别'].str.contains(t)]['类别'].count())) # 可视化电影的类型分布情况 data[data['类别'].str.contains('|'.join(types))]['类别'].value_counts().plot(kind='bar') plt.xlabel('电影类型') plt.ylabel('电影数量') plt.title('电影类型分布情况') plt.show() ``` 最后,需要统计电影的上映年份分布情况。可以使用 pandas 库的 str.extract() 方法和 value_counts() 方法来实现。 ```python # 统计电影的上映年份分布情况 data['上映年份'] = data['类别'].str.extract('(\d{4})') print(data['上映年份'].value_counts()) # 可视化电影的上映年份分布情况 data['上映年份'].value_counts().sort_index().plot(kind='bar') plt.xlabel('上映年份') plt.ylabel('电影数量') plt.title('电影上映年份分布情况') plt.show() ``` 到此为止,整个数据分析和可视化流程就完成了。将以上代码整合到一个 Python 文件中,并执行该文件,就可以得到统计结果和可视化图表。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值