2023美赛O奖:C题论文翻译(4).pdf

  1. 1、本文档共22页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

ProblemChosen2023TeamControlNumber

CMCM/ICM2307946

SummarySheet

世界背后的话语使用机器学习和时间序:列理论的益智游戏分析

摘要:《世界谜题》是目前《纽约时报》每天提供的一个很受欢迎的谜题。玩家尝试

在6次或更少的时间内猜出一个5个字母的单词来解决这个谜题,每次猜出都会收到反

馈。充分利用相关信息,可以有效帮助编辑提高操作性能。

首先,为了解释变化并预测未来值,引入了基于报道结果数量的时间序列模型。确定

最优AR模型20年3月1日报

订单组后,利用IMA(0,1,1)预测23告结果数量的预测区间为

[10139.23,30808.07](80%置信度)。为了研究词的属性是否会影响词的硬模率,引入了词的

属性系统和LightGBM模型。结果表明,有一些滞后属性比滞后硬模百分比本身有一些但

效果较小的影响。

其次,为了预测(1,2,3,4,5,6,X)的关联百分比,建立了基于GBDT和MMoE的两个模

MM模型GB模型MS为14。然

型。结果表明,oE显著优于DT,E5后,我们尝试使用数据

增强和特征工程方法来改进模型。前者会导致大量的噪声,无法达到预期的效果,后者则

略微提高了模型的性能。对单词EERIE的最终模型预测值为

(0.649,7.579,26.298,32.614,20.930,9.63,2.298)。

第三,引入K-means模型,以尝试次数的分布作为难度特征,将样本聚为4组;为了确

定单词的哪些特征与分类相关联,我们将分类作为输出特征,将单词的所有属性作为输入

特征,建立LightGBM模型进行训练。测试集的准确率达到了70%。对输出特征的重要性

进行排序。最后,利用该模型对EERIE词的类别进行预测,预测结果为第二组。

最后,在data中发现了

set该数据集的一些有趣的特征。讨论了大频率词的特征、尝试

数的分布形状和词特征的相关性。

此外,我们对模型的优缺点进行了评价并提出了一些建议,并对模型对委托率进行了

敏感性分析,从而证明了模型的可靠性和稳定性。

关键词:Wordle;ARIMA;LightGBM;MMoE;数据增加;工程特点;K-means;敏感性分析

目录

世界背后的话语:使用机器学习和时间序列理论的益智游戏分析1

1介绍4

1.1问题背景4

1.2问题重述5

2一般假设和模型概述5

2.1假设5

3模型准备6

3.1符号6

3.2数据预处6

4模型时间:7

一序列预测模型

4.时间7

1序列的概念

4.2时间序列的平稳性7

4.3模型建立8

4预9

.4测结果

5Word的提取和分析属性9

5.1提取词的属性9

5.2字属性概述9

二ght-GBM硬模式百分比

6模型:用Li解释11

6.1LightGBM简介11

6.数据

文档评论(0)

137****9859 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档