Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

达摩院决策智能实验室杨超:Safe RL介绍及在电网调度中的应用

5 月 24 日,在 机器之心 举办的「决策智能产业应用」在线圆桌论坛上, 阿里巴巴 达摩院决策智能实验室的杨超发表了主题演讲《Safe RL 介绍及在电网 调度 中的应用》。


机器之心 对杨超的演讲内容进行了不改变原意的整理。感兴趣的小伙伴可以 点击阅读原文 查看回顾视频。

图片

大家好,我是来自 阿里巴巴 达摩院决策智能实验室的杨超,今天主要分享一下 Safe RL,也就是安全 强化学习 的内容,及其在电网 调度 中的应用。

我今天的分享主要分为三部分:第一部分简单科普一下深度 强化学习 和电网 调度 ;第二部分介绍一些安全 强化学习 的方法,及其在电网 调度 上的应用或和改进;第三部分简单介绍一下深度强化聚焦和 强化学习

强化学习 本质上是模仿人类去学习和改进的学习方式,需要跟环境不断交互,然后通过一种试错的方式来寻找最优策略。最优策略旨在最大化长期或累计收益。我们知道 深度学习 感知 领域做得非常好,因此 深度学习 也被拿来加持 强化学习 ,帮助 强化学习 学到一个更好的最优策略。

在数学形式上, 强化学习 可以建模为 马尔可夫决策过程 。正如上图右下角所展示的, 强化学习 在每次到了一个 state 之后,产生一些 action 或接受环境所给的 word,并不断重复这个过程。 强化学习 起初是在游戏领域和 围棋 领域大放异彩,然后在 2016 年的时候 AlphaGo 将 监督学习 强化学习 联合起来,并结合 蒙特卡罗树搜索 ,击败了人类顶尖 围棋 选手。

在工业落地方面,我选了两个国外的例子,一个是 Google 数据中心的冷却系统使用一种 Model-based RL 系统来控制温度,最终会比产品 PID 控制器的效率更高一些。目前谷歌宣称其冷却系统已经完全由 AI 自主控制。第二个例子是 MSRA 航运 路径 规划 ,它采用的是一种称为竞争合作的多智能体学习方法,并声称每年为其航运节省近千万美元的运营成本。

下面我再来说一下 DRL 系统的发展和挑战,下图是一个其他作者总结的图。我们可以发现 强化学习 主要是基于 AC 架构的算法,而 强化学习 的很多问题还是开放性问题,或者说还存在一些挑战,包括学习成本高、学习效率差。另一方面, 强化学习 要不断去探索设计新算法,并且很多 强化学习 算法是在仿真环境中改进的,算法成本确实非常高。

图片

这就存在诸多挑战,其中一个挑战是安全性,一旦 强化学习 要落地到一些工业场景,安全性就是一个非常重要的问题。在具体讲安全 强化学习 之前,我先简单介绍一下电力系统,电力系统可以说是目前人工构建的最复杂系统之一,它主要的功能包括电网的运行与控制,电力市场的资源配置以及需求侧的响应等等,其中电网的安全运行与控制是一切的基础。近几年随着国家战略和新能源的发展,以及负荷的快速增长,一些电力电子设备加入到电网中,电力系统的不确定性和波动性在不断加剧,对于整个电力系统和电网 调度 来说,需要有一些更加高效的算法做出辅助决策。右边这个图展示的就是一个电网在不同时间尺度的不同控制方式。

图片

长期来看,电力系统有一些长期的 规划 ,比如电力的出清和 调度 策略的制定。到了日中的话,然后他会去做一些经济 调度 的内容一些操作。在整个电网 调度 中,一个比较基础也比较关键的问题是「最优潮流」,它是电网 调度 中抽象出的最优化问题,旨在保障电网安全运行的前提下最强化发电行业的目标。最优化问题本身是一个非线性、非凸问题。

电网本身可以看成是一个网络的结构,其中包含点和边的概念,一些点代表变电站、电厂或发电机组,另外一些点代表用电户,电网中的边有安全的含义。因此我们一般把这个问题抽象成 ACOPF 问题,大概如右下角所展示的数学模型,这里面有一个所谓的「潮流」的概念,本身是一个非线性的方程组,最优潮流一般来说求解效率可能会相对稍慢。在电力领域,为了提升求解效率,通常我们会把这个问题做一些近似或者简化。

第一种简化方式是把它线性化,线性化后的问题在电力领域里也是被广泛使用的,他可以求得一个解,但是由于做过近似,因此安全性并不是完全能够保障安全,这就又回到安全 强化学习 的问题。我们希望通过 强化学习 的方式去应对,或者以更加高效的方式去做电网 调度

安全 强化学习 的概念,是指我们不仅要在 强化学习 的基础上,去找到一个使得累计收益最大的最优策略,同时还要满足一些系统性的性能指标或满足安全约束,一般可以建模为 constraint 的 Mark decision process 过程,如下图右所示。

其中,我们一般会把安全约束或通用性约束写成期望收益或累计期望收益的形式。相当于这里面我们会定义每一次的状态转移、每一次进行 action、每一个 step,最后我们会有一个 cost 函数来刻画安全因素是否得到满足。通常来讲的话一般也会把它建模成一个累计期望的形式。

这里我列举了 Safe RL 的一些方法,大概有 5 类方法:

图片

第一种方法罚函数法通常也可以被称为 Reward shaping 或 Regularization,也是所谓的 正则化 方法。通常来说这种方法会将约束的违反程度加入到优化目标中,从而构建无约束的优化问题,如下图所示。由于惩罚系数是提前固定的,因此该方法最终效果对系数的选择很敏感。

图片

如上图右下角的另一个实验所示,我们可以看到当我们采用一些不同的技术,例如采用的惩罚系数比较大,约束不再违法,但是获得的长期的收益就比较低,如图中橙色曲线所示,而绿色曲线则不太可能会满足安全约束,蓝色的线是折中方案,如果我们可以将一些经验知识进行抽象,并把它们直接作用到我们类似的学习中,则可以取得一些不错的效果。

我们当时在国网比赛中对一个经典的 DDPG 进行了改造,可以看到下图右红色曲线的明显改进,无论是 收敛 速度还是获得收益,它的效果都会更好一些。当然需要你对策略做一些精巧的设计。

图片

第二类方法原始 - 对偶法本质上是通过拉格朗日松弛(lagrangian relaxation)技术,原问题(primal problem) 被转换为对偶问题(dual problem),而对偶问题是原问题的上界,因此最小化对偶问题的解可以逼近原问题的最优解。

图片

对偶问题一般存在一个二层的优化,所以他会去去更新两种变量,一种变量是原问题的变量,另一个变量就是对偶变量。我们一般会以更高的频率去更新原始的问题变量,然后以较低的频率去更新对偶变量。这种方法中有一些问题有待回答和进一步验证,已有一些论文提到由于这个方法是近似得到一个原问题的最优解,因此存在对偶间隙,这个问题仍需进一步探索。另一方面,这类方法在实践的过程中 收敛 比较慢,每一次做优化时都要先固定一个对偶变量,然后再做内部原问题的寻优。当原问题 收敛 得差不多了,我们再更新一下结果变量,其中相当于套用了一个二层循环。

如下图左下角所示,绿色的线是 primal-dual 方法的一个展示,可以发现在整个训练的过程中安全约束是下降的但 收敛 较慢,它对于对偶变量的初始值较为敏感。

图片

第三类方法是直接策略优化,这类方法是从 策略搜索 的角度出发直接去设计相关算法,我们可以在做策略优化迭代的过程中,每次去最大化策略的收益增量。

图片

通常这一类方法是将原始优化问题的目标或约束替换为一个更易处理的代理函数。比如在 constrained policy optimization(CPO 算法)中原始问题的目标及约束被分别替换为下界及上界代理函数。当采用信赖域(Trust Region)进行 策略搜索 时, 可以使 worst-case 下的约束违反程度被 bound 住,而增量收益是非递减的。

图片

因此可以通过对偶问题来求解,尤其是假设每次只违反一个约束,对偶问题可以直接得到解析解。由于存在近似误差,会采用恢复机制以及回溯线搜索(backtracking line search)机制来保障代理约束的要求。如上图右下角所示,以 (b) 为例,我们可以看到 CPO 的蓝色曲线在最差情况下也是可以 bound 住的,但是在训练过程中不一定严格满足原来的约束。

第四类方法就是需要有一种机制,以保证在每一个时刻下或每一个状态下,都不会违反约束。例如 2018 年有一篇论文就提出一个 safety layer 方法,采用了额外的保护措施。在该方法中,如果 action 违反了一些约束,就把它做一次调整或者做一次投影,以找到一个满足约束的解。这种方法实际上是把约束做了一些线性的近似,将约束表达成一个关于 action 灵敏度的线性函数。

图片

灵敏度函数可以通过 NN 提前进行离线学习,没有一个明确的规则或约束形式,因此这种方法也是一种近似。

强化学习 和知识模型本质上存在一些互补的优势。 强化学习 的优势是在线响应时间比较快,适用于不确定性场景;劣势是学习效率慢、成本高,解存在安全性隐患。而数学建模在电力领域已进行了多年研究,相对成熟。因此在可求解的情况下,解的质量会比较高,可解释性也比较好。数学建模的劣势就是对于大规模问题或不确定性问题,它的处理效果不是很好。

图片

我们可以把 强化学习 和数学建模两种方法进行结合,以让每一时刻都不违反约束,我们以知识模型作为 safety layer 来进行安全约束保障。通过与求解的深度结合,可以使 policy 更好地 感知 到约束集区域,配合可行性检验、warm-start 机制以及冗余约束识别,从而尽可能减少 safety layer 的调用频次及求解耗时。

图片

在实现的过程中,我们通过异步训练框架及算力资源来加速 强化学习 收敛 。从效果上讲,我们展示了两类结果,一类是单步优化,即如果一个问题能够通过数学建模表达出来,并且是个凸问题,求得的一定就是最优解,实验结果如下图左下角所示,在一个数据集上 96% 的概率下,解都是直接可行的,也满足安全因素,距离最优的 gap 不到 1%,在另外一个数据集上可行概率几乎达到 100%。如果每一个问题都用原始的 solver 去求解,提速可以达到 6 倍,甚至说提升了一个量级。

图片

对于多步优化,我们也对比了三类方法:Our Method(A1)、Penalty Method(A2)、以及 Safe Explore(A3)。如上图右所示,蓝色的就是我们方法的结果,基本不会违反约束,并且获得的结果也是不错的。

最后我介绍一下我们实验室,负责人是印卧涛老师,全球 top 1% 高被引数学家,获得过 NSF CAREER 奖、斯隆研究奖、晨兴应用数学金奖、达摩奖、Egon Balas 奖等。我们实验室致力于 机器学习 、数学优化、时序分析与预测等多种决策技术的研究与创新,构建智能决策系统、 提升业务运营效率、降低运营成本 。目前我们已取得的成果包括优化求解器 MindOpt,多次获得国际权威榜单第一名;实验室拥有多篇顶会论文,并获多项国内外比赛冠军。2021 我们获得国家电网 AI 创新大赛电力 调度 赛道冠军、新能源预测赛道亚军;负荷预测落地山东德州达到 98% 的 准确率 。目前我们正在构建 强化学习 平台来支撑第 4 届南网 AI 大赛电力 调度 赛道。感兴趣的同学可以联系我们,加入我们的实验室,相互学习,一起成长。

图片

产业 阿里巴巴达摩院
相关数据
深度学习 技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。