text
stringlengths
1
48
好這個是你的環境
你的環境呢
輸出一個observation
叫做s1
這個s1呢
會變成你的actor的輸入
你的actor呢
接下來就是輸出a1
然後這個a1呢
又變成環境的輸入
你的環境呢
看到a1以後
又輸出s2
然後這個互動的過程啊
就會繼續下去
s2又輸入給actor
它就輸出a2
a2又輸入給environment
它就輸出給
它就產生s3
它這個互動呢
一直下去
直到滿足遊戲中止的條件
好那這個s跟a所形成的這個sequence
就是s1a1s2a2s3a3這個sequence
又叫做trajectory
那我們用τ來表示trajectory
好那根據這個互動的過程
machine會得到reward
你其實可以把reward也想成是一個function
我們這邊用一個綠色的方塊來代表
這個reward所構成的function
那這個reward這個function
有不同的表示方法啦
在有的遊戲裡面
也許你的reward
只需要看你採取哪一個action就可以決定
不過通常我們在決定reward的時候
光看action是不夠的
你還要看現在的observation才可以
因為並不是每一次開火你都一定會得到分數
開火要正好有擊到外星人
外星人正好在你前面
你開火才有分數
所以通常rewardfunction在定義的時候
不是只看action
它還需要看observation
同時看action跟observation
才能夠知道現在有沒有得到分數
所以reward是一個function
這個reward的function
它拿a1跟s1當作輸入
然後它產生r1作為輸出
它拿a2跟s2當作輸入
產生r2作為輸出
把所有的r通通結合起來
把r1加r2加r3一直加到rt
全部結合起來就得到r
這個就是totalreward
也就是return
這個是我們要最大化要去maximize的對象
好那這個optimization的問題
它長得是什麼樣子呢
這個optimization的問題是這個樣子
你要去找一個network
其實是network裡面的參數
你要去learn出一組參數
這一組參數放在actor的裡面
它可以讓這個r的數值越大越好
就這樣
結束了
整個optimization的過程就是這樣
你要去找一個network的參數
讓這邊產生出來的r越大越好
那乍看之下
如果這邊的
這個environmentactor跟reward
它們都是network的話
這個問題其實也沒有什麼難的
這個搞不好你現在都可以解
它看起來就有點像是一個recurrentnetwork
這是一個recurrentnetwork
然後你的loss就是這個樣子
那只是這邊是reward不是loss
所以你是要讓它越大越好
你就去learn這個參數
用gradientdescent你就可以讓它越大越好
但是rl困難的地方是
這不是一個一般的optimization的問題
因為你的environment
這邊有很多問題導致說
它跟一般的networktraining不太一樣
第一個問題是
你的actor的輸出是有隨機性的
這個a1它是用sample產生的
你定同樣的s1每次產生的a1不一定會一樣
所以假設你把environmentactor跟reward
合起來當做是一個巨大的network來看待
這個network可不是一般的network
這個network裡面是有隨機性的