【C题完整论文】2024美赛完整论文+代码参考(无偿分享)

C题:网球运动中的动力


一、问题分析

1.1 问题一分析

针对该问题,经过数据清洗和特征工程处理之后,即考虑对动量指标的定义,通过数据分析和相关性计算,选取是否发球、是否取得压制性得分、跑动差和失误率这四项指标作为基本的影响指标,通过实验进行权重分配之后,再通过标准化映射将其规约到[-1,1]区间内,从而能够再任意时刻直接计算参赛者的优势大小,最终进行可视化。

1.2 问题二分析

针对该问题,可以通过两个方面来评估,得到“动量”在比赛中的确起作用的观点。通过可视化数据量化表示动量和比赛结果的单调关系,动态展示相关性。并在测试集上计算每步动量和比赛最终胜负的相关关系。通过仿真生成随机的得分方案,进行同样的相关性分析。

1.3 问题三分析

对于第一点,可以通过网络进行特征分析,进行PCA(主成分分析)方法考虑多个指标对最终结果的贡献度,得出最相关的因素。

对于第二点,可以通过识别对方选手的最影响动量的因素,从而针对性进行回避和对抗。例如对方选手如果出现动量上升的预兆,就可以通过暂停等方案进行规避。

1.4 问题四分析

针对该问题,可以将动量模型与最终的胜负联系起来,在所有的数据集上进行误差分析。具体来说,可以将动量结果作为输入,使用另一个模型来进行分类,得出最终的比赛结果。并通过特征工程分析未来可能需要包含的相关因素,最后搜集其他比赛的数据集,进行泛化性验证。

1.5 问题五分析

基于前四个问题归纳总结即可。例如时刻注意动态的动量曲线变化,提早识别出双方对动量曲线影响的因素,从而多使用对自己有利的方案,规避对对方有利的方案等。

二、模型建立与求解

2.1 问题一:

2.1.1 求解思路

针对该问题,经过数据清洗和特征工程处理之后,即考虑对动量指标的定义,通过数据分析和相关性计算,选取是否发球、是否取得压制性得分、跑动差和失误率这四项指标作为基本的影响指标,通过实验进行权重分配之后,再通过标准化映射将其规约到[-1,1]区间内,从而能够再任意时刻直接计算参赛者的优势大小,最终进行可视化。

2.1.2 数据预处理

通常对数据的预处理包括以下几个部分 (1)离群数据处理,将数据集中的异常离群点数据进行处理,通常有滑动平均及直接删除等方法(2)数据记录缺失值处理,往往在采集数据的过程中,数据时间点的统计可能并不连续,从而需要使用窗口均值或是回归等方式进行缺失值的填补;(3)数据标准化,一般是将数据放缩到零均值同方差的区间,确保数据的多个特征的无量纲化。对于附件中收集到的数据,时间较为完整,除少数比赛盘数出现时间大于24之外,不存在过多异常值,所以不进行过度处理。

2.1.3 数据分析

数据一共包括31场比赛场次,来源于2023 Wimbledon Championships 男子单打的32强之后的竞争赛,我们首先认为数据中存在的所有指标都是有意义的,首先进行部分指标的分析。

在统计学中,皮尔逊相关系数,又称作 PPMCC或PCCs,文章中常用r或Pearson' s r表示)用于度量两个变量X和Y之间的相关(线性相关),其值介于-1与1之间. 在自然科学领域中,该系数广泛用于度量两个变量之间的相关程度,主要是用来衡量变量间的线性相关关系。皮尔逊相关系数的计算公式为

相关系数越接近于1或-1,相关系数的绝对值越大,相关度越强;相关系数越接近于0,相关度越弱。通常情况下通过下表取值范围判断变量的相关强度。

表1 相关强度等级表

 理论上来说,发球方在当前分下的获胜概率比非发球方更高,我们统计所有发球方与获胜方在数据,进行展示:两者的皮尔逊相关系数r 仅为0.35,体现为弱相关。但绘制其混淆矩阵可以得出:

 

理论上来说,手握发球局,有0.67的概率得分。

其次,压制性得分对动量也有较大影响。压制性得分定义为得到最近A分的B分,这是一个直接描述最近得分势头的指标,相比于连胜得分,它更具有说服力,这是因为在网球中需要频繁交替发球,发球和破发的影响不可忽略。通常考虑B=5,A=4,即如果在最近5小分中拿到4分,对动量提升有较大帮助。下图展示了在决赛的第一盘中(2023-wimbledon-1701,set_no = 1)

 

在该盘中,选手Djokovic的压制性得分以13:0的出现次数压倒性的领先,从而简单的以6:1的局分带走第一盘。

在盘内的选手之间的跑动距离差会很大程度上影响选手的体力,如果在相持阶段被频繁调动,导致跑动距离远大于对方选手,会导致降低整体胜率,从而降低动量。

 同样以该盘为例,整体的选手Djokovic总体来说拥有较低的移动量,也最终获得该盘的胜利。

 

将所有数据整合分析,有57.8% 的概率可以认为跑动距离较长的一方胜率较低,但由于在部分场次中跑动距离相差不大,计算得出平均的跑动距离为13.94,最终的跑动距离指标将与平均跑动距离求差后再进行计算。

此外,数据中提供的两次发球失误并输掉分数(double_fault),非受迫性失误(unf_err)这两个指标失误指标会显著性降低动量,虽然不会对选手生理上造成过大的消耗,但会使选手的心理层面上出现懊悔等情绪,降低胜率。

将指标量化,认为

其中t表示得分发生的时间, St 表示发球指标, Gt 表示压制性得分指标, Rt 表示调动性参数, Ft 表示失误性指标,而 f(⋅) 为标准化函数,进行非线性区间映射,其中 α,β,γ,δ 为不同指标的标准化放缩权重,通过参数寻优,可计算出

我们认为动量应该是一个与净胜场无关的变量,因为我们需要使用动量还刻画逆袭这种状态。

模型构建完毕,我们尝试使用该模型在第一场球赛(2023-wimbledon-1301)中进行可视化分析:

 最终得到决赛的动量展示图5。

 

由于其存在一定平稳特性,f(\cdot )为窗口为3的平均滑窗,则最终为图6所示结果,其中其动量求和为6.85大于0,且其中动量大于0等时刻也多于一半。

在实际比赛过程中,由于选手1以6:4先下一城,随后选手2以6:7扳回一局,最后选手1以6:3获得胜利从而获得正常比赛的胜利,图7为整体的净胜场图能够反应这个比赛的趋势,

 而不考虑胜场所带来影响的动量,计算其积累量时,也能够反应这种趋势,动量在很大程度上会受到发球局的影响,所以不断震荡,但是还是能够反应选手之间的能力强弱。

import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from datetime import datetime, timedelta
src_data = pd.read_csv("Wimbledon_featured_matches.csv")
src_data
len(src_data)
src_data.iloc[2,0]
count = 1
for i in range(1,len(src_data)):
    if src_data.iloc[i,0] != src_data.iloc[i-1,0]:
        count += 1
count
#data_aim = src_data[src_data["match_id"] == "2023-wimbledon-1701"]
data_aim = src_data.copy()
def time_to_seconds(time_str):
    # 将时间字符串转换为datetime对象
    time_obj = datetime.strptime(time_str, "%H:%M:%S")
    
    # 创建一个基准时间(00:00:00)
    base_time = datetime.strptime("00:00:00", "%H:%M:%S")
    
    # 计算时间差,即转换为时间戳
    time_delta = time_obj - base_time
    
    # 获取总秒数
    total_seconds = time_delta.total_seconds()
    
    return int(total_seconds)
y_data_aim = []
for i in data_aim["elapsed_time"].values:
    y_data_aim.append(time_to_seconds(i))
data_aim["point_victor"].values
data_aim["server"].values
len(data_aim["server"].values)
from scipy.stats import pearsonr
corr, p_value = pearsonr(data_aim["point_victor"].values, data_aim["server"].values)
corr
p_value
import seaborn as sns
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(data_aim["point_victor"].values, data_aim["server"].values)
sns.heatmap(cm, annot=True, fmt="d", cmap="Blues")
plt.show()
(2452 + 2451) / 7284
#data_aim = src_data[src_data["match_id"] == "2023-wimbledon-1701"]
data_aim_1 = src_data[src_data["match_id"] == "2023-wimbledon-1701"]
data_aim_1 = data_aim_1[data_aim_1["set_no"] == 1]
len(data_aim_1['point_victor'])
data_aim_1['point_victor'].values
y_data_aim_1 = []
for i in data_aim_1["elapsed_time"].values:
    y_data_aim_1.append(time_to_seconds(i))
plt.plot(data_aim_1["elapsed_time"].values,data_aim_1['point_victor'].values,'x')
plt.xticks([])
plt.show()
# A/B指标
def count_three_numbers(arr):
    count_ones = 0
    count_twos = 0
    for i in range(len(arr) - 4):
        sub_array = arr[i:i+5]
        if sub_array.count(1) == 4:
            count_ones += 1
        elif sub_array.count(2) == 4:
            count_twos += 1
    return count_ones, count_twos
count_three_numbers(list(data_aim_1['point_victor'].values))
np.mean(data_aim["p1_distance_run"].values)
np.mean(data_aim["p2_distance_run"].values)
(14.002310680944536+13.869239017023613)/2
t_data_aim = data_aim[data_aim["p1_distance_run"] > data_aim["p2_distance_run"]]
len(t_data_aim[t_data_aim["point_victor"] == 1])
run_cm = [[1612,2136],[2083,1612]]
sns.heatmap(run_cm, annot=True, fmt="d", cmap="Blues")
plt.show()
(2136+2073)/len(data_aim)
def count_run(pd_frame):
    run_arvg = 13.94
    d_now_run = pd_frame["p1_distance_run"] - pd_frame["p2_distance_run"]
    if(np.abs(d_now_run) > run_arvg):
        return -d_now_run/max(pd_frame["p1_distance_run"],pd_frame["p2_distance_run"])*0.2
    return -(pd_frame["p1_distance_run"] - pd_frame["p2_distance_run"])/run_arvg*0.2
data_aim_1_all = src_data[src_data["match_id"] == "2023-wimbledon-1301"]
plt.plot(data_aim_1_all["p1_distance_run"])
plt.plot(data_aim_1_all["p2_distance_run"])
#p_dis = data_aim_1["p1_distance_run"]/data_aim_1["p2_distance_run"]
plt.show()
# A/B指标
# 返回 1 或 -1
def count_A_d_B_numbers(arr):
    pass
data_aim.columns
def count_fault(pd_frame):
    ans = 0
    if pd_frame["p1_double_fault"]==1 or pd_frame["p1_unf_err"]==1:
        ans = -1
    elif pd_frame["p2_double_fault"]==1 or pd_frame["p2_unf_err"]==1:
        ans = 1
    return ans * 0.2
data_aim.columns
def count_sev(pd_frame):
    ans = 0
    if pd_frame["server"]==1:
        ans = 1
    elif pd_frame["server"]==2:
        ans = -1
    return ans * 0.2
def count_win(pd_frame):
    ans = 0
    if pd_frame["p1_points_won"] > pd_frame["p2_points_won"]:
        ans = 1
    elif pd_frame["p1_points_won"] < pd_frame["p2_points_won"]:
        ans = -1
    return ans
n_data_aim = src_data[src_data["match_id"] == "2023-wimbledon-1301"]
n_data_aim
other_index_run = np.zeros(len(n_data_aim))
other_index_fault = np.zeros(len(n_data_aim))
other_index_sev = np.zeros(len(n_data_aim))
other_index_win = np.zeros(len(n_data_aim))
other_index = np.zeros(len(n_data_aim))
for i in range(len(n_data_aim)):
    other_index_run[i] = count_run(n_data_aim.iloc[i])
    other_index_fault[i] = count_fault(n_data_aim.iloc[i])
    other_index_sev[i] = count_sev(n_data_aim.iloc[i])
    other_index_win[i] = count_win(n_data_aim.iloc[i])
    other_index[i] = other_index_run[i] + other_index_fault[i] + other_index_sev[i] #+ other_index_win[i]

2.2 问题二

2.2.1 问题二求解思路

针对该问题,可以通过两个方面来评估,得到“动量”在比赛中的确起作用的观点。通过可视化数据量化表示动量和比赛结果的单调关系,动态展示相关性。并在测试集上计算每步动量和比赛最终胜负的相关关系。通过仿真生成随机的得分方案,进行同样的相关性分析。

2.2.2 问题二模型建立与求解

首先计算从1301-1701一共31场比赛的积累动量,经计算共有4场不匹配,有效概率为87.1%

 其中不匹配的比赛分别为1304,1307,1404,1701,四场比赛几乎都比至最后一场,甚至在1304,1404场次都存在净胜场领先但是总场次落败的情况,在上述情况下基于动量的方式来进行比赛结果的判断容易发生混淆。

 使用卡方检验对原问题进行分析,即原假设为:运动员在比赛中发生的状态波动是随机的,与动量无关,则比赛胜负和积累动量的正负是相互独立的。

 卡方统计量为13.8 ,自由度为1,p值 为$2\times {​{10}^{-5}}<0.05$,可以拒绝原假设,从而判断动量在比赛中会起作用。

from scipy.stats import ks_2samp

# 两个样本数据
sample1 = [1, 2, 3, 4, 5]
sample2 = [10, 4, 6, 8, 10]

# 进行KS检验
statistic, p_value = ks_2samp(sample1, sample2)

# 输出结果
print("KS统计量:", statistic)
print("p值:", p_value)

import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from datetime import datetime, timedelta

src_data = pd.read_csv("E:\\在写的东西\\24数模美赛\\Wimbledon_featured_matches.csv")

def time_to_seconds(time_str):
    # 将时间字符串转换为datetime对象
    time_obj = datetime.strptime(time_str, "%H:%M:%S")
    
    # 创建一个基准时间(00:00:00)
    base_time = datetime.strptime("00:00:00", "%H:%M:%S")
    
    # 计算时间差,即转换为时间戳
    time_delta = time_obj - base_time
    
    # 获取总秒数
    total_seconds = time_delta.total_seconds()
    
return int(total_seconds)

def sliding_window_average(arr):
    averages = []
    for i in range(len(arr) - 2):
        window_sum = arr[i] + arr[i + 1] +arr[i+2]
        window_average = window_sum / 3.0
        averages.append(window_average)
    averages.append(arr[-2])
    averages.append(arr[-1])  # 添加最后一个元素到新数组中
    return averages

n_data_aim = src_data[src_data["match_id"] == "2023-wimbledon-1701"]

AB_array = count_three_numbers(list(n_data_aim["point_victor"].values))*0.4

other_index_run = np.zeros(len(n_data_aim))
other_index_fault = np.zeros(len(n_data_aim))
other_index_sev = np.zeros(len(n_data_aim))
other_index_win = np.zeros(len(n_data_aim))
other_index = np.zeros(len(n_data_aim))

for i in range(len(n_data_aim)):
    other_index_run[i] = count_run(n_data_aim.iloc[i])
    other_index_fault[i] = count_fault(n_data_aim.iloc[i])
    other_index_sev[i] = count_sev(n_data_aim.iloc[i])
    other_index_win[i] = count_win(n_data_aim.iloc[i])
    other_index[i] = other_index_run[i] + other_index_fault[i] + other_index_sev[i]


  • 43
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值