回报分解仿真环境Demo制作
课题背景
目前强化学习算法已经应用在包括游戏AI等很多领域的方法决策中,成为最优可能实现通用人工智能(AGI)的深度学习算法,而作为强化学习的基础,马尔科夫决策过程(MDP)成为目前研究的热点。 回报延迟的解决办法是MDP研究领域的一个重要分支,回报延迟会造成估计的方差变大,从而使强化学习的效果恶化。针对回报延迟的一个解决办法就是回报分解,基于此,我们提出了本课题,希望能够实现一个回报分解的仿真环境,能够实现对回报延迟的MDP进行可视化的回报分解,并提升模型的学习效果
功能描述
实现一个可视化的回报分解仿真环境
仿真环境是一个延迟回报问题,可以通过仿真环境展示最终回报的分解过程
能够展示回报分解对强化学习模型训练效果的提升作用
其他功能
问题挑战
可视化的强化学习仿真环境
延迟回报的分解方法和展示方法
回报分解如何作用于模型训练
Demo评审
功能完整性,完成功能描述所列举的功能
功能创新性,创造性设计功能描述中列举的功能,或者设计了其他创造性的功能
技术新颖性,所用技术新颖
技术难度,开发功能和使用技术具有一定的难度
联系我们
hztaojianrong@corp.netease.com hzshenxudong@corp.netease.com
Last updated