text
stringlengths
1
48
這個network裡面的某一個layer是
每次產生出來結果是不一樣的
這個network裡面某一個layer是
它的輸出每次都是不一樣的
另外還有一個更大的問題就是
你的environment跟reward
它根本就不是network啊
它只是一個黑盒子而已
你根本不知道裡面發生了什麼事情
environment就是遊戲機
那這個遊戲機它裡面發生什麼事情你不知道
你只知道說你輸入一個東西會輸出一個東西
你採取一個行為它會有對應的回應
但是到底是怎麼產生這個對應的回應
我們不知道
它只是一個黑盒子
而reward呢
reward可能比較明確
但它也不是一個network
它就是一條規則嘛
它就是一個規則說
看到這樣子的optimization跟這樣的action
會得到多少的分數
它就只是一個規則而已
所以它也不是network
而且更糟
而且更麻煩的地方是
往往reward跟environment
它也是有隨機性的
如果是在電玩裡面
通常reward可能比較不會有隨機性
因為規則是定好的
對有一些rl的問題裡面
reward是有可能有隨機性的
但是在environment裡面
就算是在電玩的這個應用中
它也是有隨機性的
你給定同樣的行為
到底遊戲機會怎麼樣回應
它裡面可能也是有亂數的
它可能每次的回應也都是不一樣
如果是下圍棋
你落同一個子
你落在
你落子在同一個位置
你的對手會怎麼樣回應
每次可能也是不一樣
所以環境很有可能也是有隨機性的
所以這不是一個一般的optimization的問題
你可能不能夠用我們這門課已經學過的
訓練network的方法來找出這個actor
來最大化reward
所以rl真正的難點就是
我們怎麼解這一個optimization的問題
怎麼找到一組network參數
可以讓r越大越好
其實你再仔細想一想啊
這整個問題跟gan其實有異曲同工之妙
它們有一樣的地方
也有不一樣的地方
先說它們一樣的地方在哪裡
你記不記得在訓練gan的時候
在訓練generator的時候
你會把generator跟discriminator接在一起
然後你希望去調整generator的參數
讓discriminator的輸出越大越好
今天在rl裡面
我們也可以說這個actor就像是generator
environment跟reward就像是discriminator
我們要去調整generator的參數
讓discriminator的輸出越大越好
所以它跟gan有異曲同工之妙
但什麼地方不一樣呢
在gan裡面你的discriminator
也是一個neuralnetwork
你了解discriminator裡面的每一件事情
它也是一個network
你可以用gradientdescent
來train你的generator
讓discriminator得到最大的輸出
但是在rl的問題裡面
你的reward跟environment
你可以把它們當discriminator來看
但它們不是network
它們是一個黑盒子
所以你沒有辦法用
一般gradientdescent的方法來調整你的參數
來得到最大的輸出
所以這是rl
跟一般machinelearning不一樣的地方
但是我們還是可以把rl就看成三個階段
只是在optimization的時候
在你怎麼minimizeloss
也就怎麼maximizereward的時候
跟之前我們學到的方法是不太一樣的
好那這個就是有關
rl跟machinelearning三個步驟的關係
好我們看一下大家有沒有問題問
好有一位同學問說
為什麼負的totalreward等於loss