text
stringlengths
1
48
好為什麼負的totalreward會等於loss呢
我們在training的時候啊
在我們之前講過的
所有的deeplearning的training裡面
我們都是定義了一個loss
要讓這個loss越小越好
在rl裡面呢
我們是定義了一個totalrewardr
然後我們要讓那個r越大越好
但是要讓r越大越好這件事情
我們完全可以反過來說
就是我們要讓負的r
就是r乘上一個負號
越小越好
所以我們就可以說
r乘上一個負號就是rl的loss
如果以前學的模型沒有固定
randomseed的話也算是有隨機性嗎
嗯這兩個隨機性是不一樣的
我們在之前的學模型的時候
沒有固定randomseed
你是training的時候有隨機性
就是你沒有固定randomseed
你可能initialize的parameter不一樣
所以你每次訓練出來的結果不一樣
但是rl是在testing的時候就有隨機性
也就是說不是training的時候有隨機性喔
是測試的時候就已經有隨機性了
所以如果拿一般的training來比喻的話
就是你在你networktrain好以後
你拿這個network在testing的時候
你想要使用它
你把你要把這個network
使用在testing的狀況下
但發現說你給同樣的input
每次輸出都不一樣
這個才是rl的隨機性
所以rl是說你train好一個actor
actor你learn好了
actor參數都是固定的
但你拿這個actor去跟環境互動的時候
每次的結果都是不一樣的
因為你的環境就算是看到同樣的輸入
它每次給輸出也可能是不一樣的
所以rl是一個隨機性特別大的問題啦
所以你可以想見這個作業有可能是
也確實是特別困難的
不過我覺得一個作業的難度啊
有時候不好說
因為rl
如果今天你沒有任何網路上參考資料的話
它可能是最難的
但另外一方面rl又蠻容易找到
各式各樣的github上的code
所以好像又沒有那麼難
但是rl的隨機性是會非常非常大的
就算是同樣的network
你每次測試的時候
結果都可以是不一樣
a1下方寫argmax是寫錯了嗎
這個我投影片後來有
可能是有改了一下
如果你有不清楚的地方你再問我好了
就是這個投影片我剛才在上課前改了一下
之後會把新的投影片再釋出
好大家還有問題要問一下嗎
好如果大家暫時沒有問題的話
那我們就再繼續
那我們就是在講到一個段落呢
我們再休息
好那接下來啊
我們就要講一個拿來解rl
拿來做optimization那一段常用的一個演算法
叫做policygradient
那如果你真的想知道
policygradient是哪裡來的
你可以參見過去上課的錄影
對policygradient有比較詳詳盡的推導
那今天我們是從另外一個角度
來講policygradient這件事情
好那在講policygradient之前
我們先來想想看
我們要怎麼操控一個actor的輸出
我們要怎麼讓一個actor
在看到某一個特定的observation的時候
採取某一個特定的行為呢
我們怎麼讓一個actor
它的輸入是s的時候
它就要輸出actiona^呢
那你其實完全可以把它想成一個分類的問題
也就是說假設你要讓actor輸入s