text
stringlengths 1
48
|
---|
好為什麼負的totalreward會等於loss呢 |
我們在training的時候啊 |
在我們之前講過的 |
所有的deeplearning的training裡面 |
我們都是定義了一個loss |
要讓這個loss越小越好 |
在rl裡面呢 |
我們是定義了一個totalrewardr |
然後我們要讓那個r越大越好 |
但是要讓r越大越好這件事情 |
我們完全可以反過來說 |
就是我們要讓負的r |
就是r乘上一個負號 |
越小越好 |
所以我們就可以說 |
r乘上一個負號就是rl的loss |
如果以前學的模型沒有固定 |
randomseed的話也算是有隨機性嗎 |
嗯這兩個隨機性是不一樣的 |
我們在之前的學模型的時候 |
沒有固定randomseed |
你是training的時候有隨機性 |
就是你沒有固定randomseed |
你可能initialize的parameter不一樣 |
所以你每次訓練出來的結果不一樣 |
但是rl是在testing的時候就有隨機性 |
也就是說不是training的時候有隨機性喔 |
是測試的時候就已經有隨機性了 |
所以如果拿一般的training來比喻的話 |
就是你在你networktrain好以後 |
你拿這個network在testing的時候 |
你想要使用它 |
你把你要把這個network |
使用在testing的狀況下 |
但發現說你給同樣的input |
每次輸出都不一樣 |
這個才是rl的隨機性 |
所以rl是說你train好一個actor |
actor你learn好了 |
actor參數都是固定的 |
但你拿這個actor去跟環境互動的時候 |
每次的結果都是不一樣的 |
因為你的環境就算是看到同樣的輸入 |
它每次給輸出也可能是不一樣的 |
所以rl是一個隨機性特別大的問題啦 |
所以你可以想見這個作業有可能是 |
也確實是特別困難的 |
不過我覺得一個作業的難度啊 |
有時候不好說 |
因為rl |
如果今天你沒有任何網路上參考資料的話 |
它可能是最難的 |
但另外一方面rl又蠻容易找到 |
各式各樣的github上的code |
所以好像又沒有那麼難 |
但是rl的隨機性是會非常非常大的 |
就算是同樣的network |
你每次測試的時候 |
結果都可以是不一樣 |
a1下方寫argmax是寫錯了嗎 |
這個我投影片後來有 |
可能是有改了一下 |
如果你有不清楚的地方你再問我好了 |
就是這個投影片我剛才在上課前改了一下 |
之後會把新的投影片再釋出 |
好 |
好大家還有問題要問一下嗎 |
好如果大家暫時沒有問題的話 |
那我們就再繼續 |
那我們就是在講到一個段落呢 |
我們再休息 |
好那接下來啊 |
我們就要講一個拿來解rl |
拿來做optimization那一段常用的一個演算法 |
叫做policygradient |
那如果你真的想知道 |
policygradient是哪裡來的 |
你可以參見過去上課的錄影 |
對policygradient有比較詳詳盡的推導 |
那今天我們是從另外一個角度 |
來講policygradient這件事情 |
好那在講policygradient之前 |
我們先來想想看 |
我們要怎麼操控一個actor的輸出 |
我們要怎麼讓一個actor |
在看到某一個特定的observation的時候 |
採取某一個特定的行為呢 |
我們怎麼讓一個actor |
它的輸入是s的時候 |
它就要輸出actiona^呢 |
那你其實完全可以把它想成一個分類的問題 |
也就是說假設你要讓actor輸入s |
Subsets and Splits