强化学习工具箱
使用强化学习设计和培训政策
强化学习工具箱™提供了一个应用程序,功能,和一个动态仿真模块® 块用于使用强化学习算法的训练策略, 包括DQN, PPO, 囊, 和DDPG. 您可以使用这些策略为资源分配等复杂应用程序实现控制器和决策算法, 机器人, 和自治系统.
该工具箱允许您使用深度神经网络或查找表来表示策略和值函数,并通过与BG大游app中建模的环境进行交互来训练它们® 或仿真软件. 您可以评估工具箱中提供的单智能体或多智能体强化学习算法,或者开发自己的算法. 您可以尝试使用超参数设置, 监控培训进展, 并通过应用程序交互式或编程方式模拟训练有素的代理. 提高训练表现, 模拟可以在多个cpu上并行运行, gpu, 计算机集群, 和云(与并行计算工具箱™和BG大游app并行服务器™).
通过ONNX™模型格式, 现有的策略可以从深度学习框架,如TensorFlow™Keras和PyTorch(与深度学习工具箱™)导入. 你可以生成优化的C、c++和CUDA® 编写代码,在微控制器和gpu上部署经过培训的策略. 工具箱中包含了一些参考例子,可以帮助您入门.
开始:
强化学习算法
使用深度Q-network (DQN)创建代理, 深度确定性策略梯度(DDPG), 近端政策优化, 以及其他内置算法. 使用模板开发培训策略的自定义代理.
动态仿真模块中的单agent和多agent强化学习
使用RL Agent块在动态仿真模块中创建和训练强化学习Agent. 使用RL Agent块的多个实例,在动态仿真模块中同时训练多个Agent(多Agent强化学习).
动态仿真模块和Simscape环境
使用动态仿真模块和Simscape™创建环境的模型. 指定模型中的观察、行动和奖励信号.
BG大游app环境中
使用BG大游app函数和类来建模一个环境. 在BG大游app文件中指定观察、行动和奖励变量.
分布式计算和多核加速
通过在多核计算机上运行并行模拟来加快训练速度, 云资源, 或使用 并行计算工具箱 和 BG大游app并行服务器.
GPU加速
利用高性能NVIDIA加速深度神经网络训练和推理® gpu. 使用BG大游app 并行计算工具箱 以及大多数支持cuda的NVIDIA gpu 计算能力3.0或更高.
代码生成
使用 GPU编码器™ 从BG大游app代码生成优化的CUDA代码表示训练的策略. 使用 BG大游app编码器™ 生成C/ c++代码来部署策略.
BG大游app编译器支持
使用 BG大游app编译器™ 和 BG大游app编译器SDK™ 将训练有素的策略部署为独立的应用程序,C/ c++共享库,微软® .网络组件,Java® Python类,® 包.
开始
了解如何制定强化学习政策的问题,如倒立一个简单的钟摆, 在网格世界中导航, 平衡车杆系统, 以及求解一般的马尔可夫决策过程.
自动驾驶
为自动驾驶应用设计强化学习策略,如自适应巡航控制, 车道保持辅助, 和自动停车.
BG大游资源:
强化学习系列影片
观看本系列的视频,了解更多关于强化学习的知识.