这个斗地主 AI 脚本基于 DouZero 框架,旨在通过自我对弈和深度强化学习来掌握斗地主游戏。以下是它的主要功能:
自我对弈训练:使用深度蒙特卡罗算法,AI 通过与自己对战来不断优化策略。
牌型编码:将斗地主手牌编码成一个 15x4 的矩阵,其中 15 表示非重复牌的种类(3 到 A 加上大小王),4 表示最多每种有四张牌。
神经网络:使用多层感知机(MLP)作为神经网络结构,输入当前状态,输出动作的 Q 值。
多演员并行训练:通过并行训练多个模型,加速学习过程。
技术难点
状态编码:将斗地主的状态(手牌、出牌历史等)有效地编码成神经网络的输入。
训练效率:高效地训练模型,避免过大的状态空间。
技术栈
调用运转开源模型
神经网络结构:多层感知机(MLP)
状态编码:15x4 牌型矩阵、动作编码
自我对弈算法:深度蒙特卡罗方法
视觉检测:python
点击空白处退出提示












评论