text
stringlengths 1
48
|
---|
好這個是你的環境 |
你的環境呢 |
輸出一個observation |
叫做s1 |
這個s1呢 |
會變成你的actor的輸入 |
你的actor呢 |
接下來就是輸出a1 |
然後這個a1呢 |
又變成環境的輸入 |
你的環境呢 |
看到a1以後 |
又輸出s2 |
然後這個互動的過程啊 |
就會繼續下去 |
s2又輸入給actor |
它就輸出a2 |
a2又輸入給environment |
它就輸出給 |
它就產生s3 |
它這個互動呢 |
一直下去 |
直到滿足遊戲中止的條件 |
好那這個s跟a所形成的這個sequence |
就是s1a1s2a2s3a3這個sequence |
又叫做trajectory |
那我們用τ來表示trajectory |
好那根據這個互動的過程 |
machine會得到reward |
你其實可以把reward也想成是一個function |
我們這邊用一個綠色的方塊來代表 |
這個reward所構成的function |
那這個reward這個function |
有不同的表示方法啦 |
在有的遊戲裡面 |
也許你的reward |
只需要看你採取哪一個action就可以決定 |
不過通常我們在決定reward的時候 |
光看action是不夠的 |
你還要看現在的observation才可以 |
因為並不是每一次開火你都一定會得到分數 |
開火要正好有擊到外星人 |
外星人正好在你前面 |
你開火才有分數 |
所以通常rewardfunction在定義的時候 |
不是只看action |
它還需要看observation |
同時看action跟observation |
才能夠知道現在有沒有得到分數 |
所以reward是一個function |
這個reward的function |
它拿a1跟s1當作輸入 |
然後它產生r1作為輸出 |
它拿a2跟s2當作輸入 |
產生r2作為輸出 |
把所有的r通通結合起來 |
把r1加r2加r3一直加到rt |
全部結合起來就得到r |
這個就是totalreward |
也就是return |
這個是我們要最大化要去maximize的對象 |
好那這個optimization的問題 |
它長得是什麼樣子呢 |
這個optimization的問題是這個樣子 |
你要去找一個network |
其實是network裡面的參數 |
你要去learn出一組參數 |
這一組參數放在actor的裡面 |
它可以讓這個r的數值越大越好 |
就這樣 |
結束了 |
整個optimization的過程就是這樣 |
你要去找一個network的參數 |
讓這邊產生出來的r越大越好 |
那乍看之下 |
如果這邊的 |
這個environmentactor跟reward |
它們都是network的話 |
這個問題其實也沒有什麼難的 |
這個搞不好你現在都可以解 |
它看起來就有點像是一個recurrentnetwork |
這是一個recurrentnetwork |
然後你的loss就是這個樣子 |
那只是這邊是reward不是loss |
所以你是要讓它越大越好 |
你就去learn這個參數 |
用gradientdescent你就可以讓它越大越好 |
但是rl困難的地方是 |
這不是一個一般的optimization的問題 |
因為你的environment |
這邊有很多問題導致說 |
它跟一般的networktraining不太一樣 |
第一個問題是 |
你的actor的輸出是有隨機性的 |
這個a1它是用sample產生的 |
你定同樣的s1每次產生的a1不一定會一樣 |
所以假設你把environmentactor跟reward |
合起來當做是一個巨大的network來看待 |
這個network可不是一般的network |
這個network裡面是有隨機性的 |
Subsets and Splits