深度强化学习基础到前沿

机器博弈 (二) 遗憾最小化算法

2020-01-31  本文已影响0人  小小何先生

  现代的博弈论快速与人工智能进行结合,形成了以数据驱动的博弈论新的框架。博弈论与计算机科学的交叉领域非常多,有以下几个方面:

  人工智能与博弈论结合,形成了两个主要研究方向:1. 博弈策略的求解;2. 博弈规则的设计。

  博弈论提供了许多问题的数学模型。纳什定理确定了博弈过程问题存在解。人工智能的方法可以用来求解均衡局面或者最优策略。

  主要研究的问题就是:如何高效求解博弈参与者的策略以及博弈的均衡局势。

  其应用领域主要有:

遗憾最小化算法(Regret Minimization):

  我们对遗憾最优化算法(RM)中符号做若干定义:

最佳反应策略与纳什均衡

  我们来看一下遗憾最小化算法下的最佳反应策略和纳什均衡。

u_{i}(\sigma_{i}^{*},\sigma_{-i}) \geq max_{\sigma_{i}^{'}\in \sum_{i}} u_{i}(\sigma_{i}^{'},\sigma_{-i})

  即玩家i采用其它策略获得的收益小于采用最佳策略所能获得的收益。(这里其它玩家策略保持不变。)

  在策略组\sigma中,如果每个玩家的策略相对于其他玩家的策略而言都是最佳反应策略,那么策略组\sigma就是一个纳什均衡(Nash equilibrium)策略。

  纳什均衡:策略组\sigma =(\sigma_{1}^{*},\sigma_{2}^{*},\cdots,\sigma_{|N|}^{*})是纳什均衡当且仅当对每个玩家i \in N,满足如下条件:

u_{i}(\sigma) \geq max_{\sigma_{i}^{'}} u_{i}(\sigma_{i}^{*},\sigma_{2}^{*}, \cdots , \sigma_{i}^{'}, \cdots, \sigma_{|N|}^{*})

\varepsilon-纳什均衡与平均遗憾值

\overline{Regret_{i}^{M}} = \frac{1}{M}max_{\sigma_{i}^{*} \in \sum_{i}}\sum_{i=1}^{M}(u_{i}(\sigma_{i}^{*},\sigma_{-i}^{t})-u_{i}(\sigma^{t}))

策略选择

Regret_{i}^{T}(\sigma_{i})=\sum_{t=1}^{T}(\mu_{i}(\sigma_{i},\sigma_{-i}^{t})-\mu_{i}(\sigma^{t}))

P(a) = \frac{Regret_{i}^{T}(a)}{\sum_{b \in {所有可能选择策略}}Regret_{i}^{T}(b)}

Rock-Paper-Scissors,RPS 例子

\mu_{A}(P,P)-\mu_{A}(R,P)=0 -(-1)=1

  没有出剪刀的遗憾值为:

\mu_{A}(S,P)-\mu_{A}(R,P)=1-(-1)=2

image

我的微信公众号名称:深度学习与先进智能决策
微信公众号ID:MultiAgent1024
公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!

上一篇 下一篇

猜你喜欢

热点阅读