点击空白处退出提示
作品详情
自我对弈训练:使用深度蒙特卡罗算法,AI 通过与自己对战来不断优化策略。
牌型编码:将斗地主手牌编码成一个 15x4 的矩阵,其中 15 表示非重复牌的种类(3 到 A 加上大小王),4 表示最多每种有四张牌。
神经网络:使用多层感知机(MLP)作为神经网络结构,输入当前状态,输出动作的 Q 值。
多演员并行训练:通过并行训练多个模型,加速学习过程。
技术难点
状态编码:将斗地主的状态(手牌、出牌历史等)有效地编码成神经网络的输入。
训练效率:高效地训练模型,避免过大的状态空间。
技术栈
调用运转开源模型
神经网络结构:多层感知机(MLP)
状态编码:15x4 牌型矩阵、动作编码
自我对弈算法:深度蒙特卡罗方法
视觉检测:python
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态
评论