text
stringlengths 1
48
|
---|
這個network裡面的某一個layer是 |
每次產生出來結果是不一樣的 |
這個network裡面某一個layer是 |
它的輸出每次都是不一樣的 |
另外還有一個更大的問題就是 |
你的environment跟reward |
它根本就不是network啊 |
它只是一個黑盒子而已 |
你根本不知道裡面發生了什麼事情 |
environment就是遊戲機 |
那這個遊戲機它裡面發生什麼事情你不知道 |
你只知道說你輸入一個東西會輸出一個東西 |
你採取一個行為它會有對應的回應 |
但是到底是怎麼產生這個對應的回應 |
我們不知道 |
它只是一個黑盒子 |
而reward呢 |
reward可能比較明確 |
但它也不是一個network |
它就是一條規則嘛 |
它就是一個規則說 |
看到這樣子的optimization跟這樣的action |
會得到多少的分數 |
它就只是一個規則而已 |
所以它也不是network |
而且更糟 |
而且更麻煩的地方是 |
往往reward跟environment |
它也是有隨機性的 |
如果是在電玩裡面 |
通常reward可能比較不會有隨機性 |
因為規則是定好的 |
對有一些rl的問題裡面 |
reward是有可能有隨機性的 |
但是在environment裡面 |
就算是在電玩的這個應用中 |
它也是有隨機性的 |
你給定同樣的行為 |
到底遊戲機會怎麼樣回應 |
它裡面可能也是有亂數的 |
它可能每次的回應也都是不一樣 |
如果是下圍棋 |
你落同一個子 |
你落在 |
你落子在同一個位置 |
你的對手會怎麼樣回應 |
每次可能也是不一樣 |
所以環境很有可能也是有隨機性的 |
所以這不是一個一般的optimization的問題 |
你可能不能夠用我們這門課已經學過的 |
訓練network的方法來找出這個actor |
來最大化reward |
所以rl真正的難點就是 |
我們怎麼解這一個optimization的問題 |
怎麼找到一組network參數 |
可以讓r越大越好 |
其實你再仔細想一想啊 |
這整個問題跟gan其實有異曲同工之妙 |
它們有一樣的地方 |
也有不一樣的地方 |
先說它們一樣的地方在哪裡 |
你記不記得在訓練gan的時候 |
在訓練generator的時候 |
你會把generator跟discriminator接在一起 |
然後你希望去調整generator的參數 |
讓discriminator的輸出越大越好 |
今天在rl裡面 |
我們也可以說這個actor就像是generator |
environment跟reward就像是discriminator |
我們要去調整generator的參數 |
讓discriminator的輸出越大越好 |
所以它跟gan有異曲同工之妙 |
但什麼地方不一樣呢 |
在gan裡面你的discriminator |
也是一個neuralnetwork |
你了解discriminator裡面的每一件事情 |
它也是一個network |
你可以用gradientdescent |
來train你的generator |
讓discriminator得到最大的輸出 |
但是在rl的問題裡面 |
你的reward跟environment |
你可以把它們當discriminator來看 |
但它們不是network |
它們是一個黑盒子 |
所以你沒有辦法用 |
一般gradientdescent的方法來調整你的參數 |
來得到最大的輸出 |
所以這是rl |
跟一般machinelearning不一樣的地方 |
但是我們還是可以把rl就看成三個階段 |
只是在optimization的時候 |
在你怎麼minimizeloss |
也就怎麼maximizereward的時候 |
跟之前我們學到的方法是不太一樣的 |
好那這個就是有關 |
rl跟machinelearning三個步驟的關係 |
好我們看一下大家有沒有問題問 |
好有一位同學問說 |
為什麼負的totalreward等於loss |
Subsets and Splits