回覆列表
-
1 # 機器之心Pro
-
2 # 海晨威
深度強化學習是深度學習與強化學習的結合,具體來說是結合了深度學習的結構和強化學習的思想,但它的側重點更多的是在強化學習上,解決的仍然是決策問題,只不過是藉助神經網路強大的表徵能力去擬合Q表或直接擬合策略以解決狀態-動作空間過大或連續狀態-動作空間問題。
以Atari打磚塊遊戲為例,球和磚塊任意不同的位置都可以相當於一個不同的狀態,如此龐大的狀態數量使得傳統的強化學習不可能給每一個狀態對應一個動作,而深度學習端到端的學習能力能夠自動提取特徵,訓練出一個複雜的多層的具有很強表達能力的模型去擬合當前的狀態,強化學習再去學會如何根據當前狀態執行相應的動作,以獲得最大的累計獎懲。
這其實可以看作兩個步驟:原始圖片到狀態的對映,狀態到動作的對映,分別由深度學習和強化學習來完成。而由於神經網路的黑箱性質,深度強化學習可以把整個過程通盤考慮,而不需要去表現中間的狀態。
本文透過一種簡單的 Catch 遊戲介紹了深度強化學習的基本原理,並給出了完整的以 Keras 為前端的 TensorFlow 程式碼實現,是入門深度強化學習的很不錯的選擇。
GitHub 連結:https://github.com/JannesKlaas/sometimes_deep_sometimes_learning/blob/master/reinforcement.ipynb
去年,DeepMind 的 AlphaGo 以 4-1 的比分打敗了世界圍棋冠軍李世石。超過 2 億的觀眾就這樣看著強化學習(reinforce learning)走上了世界舞臺。幾年前,DeepMind 製作了一個可以玩 Atari 遊戲的機器人,引發軒然大波。此後這個公司很快被谷歌收購。
很多研究者相信,強化學習是我們創造通用人工智慧(Artificial General Intelligence)的最佳手段。這是一個令人興奮的領域,有著許多未解決的挑戰和巨大的潛能。
強化學習起初看似非常有挑戰性,但其實要入門並不困難。在這篇文章中,我們將創造一個基於 Keras 的簡單機器人,使它能玩 Catch 遊戲。
Catch 遊戲原始的 Catch 遊戲介面
Catch 是一個非常簡單的街機遊戲,你可能在孩提時代玩過它。遊戲規則如下:水果從螢幕的頂部落下,玩家必須用一個籃子抓住它們;每抓住一個水果,玩家得一分;每漏掉一個水果,玩家會被扣除一分。
這裡的目標是讓電腦自己玩 Catch 遊戲。不過,我們不會使用這麼漂亮的遊戲介面。相反,我們會使用一個簡單的遊戲版本來簡化任務:
簡化的 Catch 遊戲介面
玩 Catch 遊戲時,玩家要決定三種可能的行為。玩家可以將籃子左移、右移、或保持不動。
這個決定取決於遊戲的當前狀態。也就是說,取決於果子掉落的位置和籃子的位置。
我們的目標是創造這樣一個模型:它能在給定遊戲螢幕內容的情況下,選擇導致得分最高的動作。
這個任務可以被看做一個簡單的分類問題。我們可以讓遊戲專家多次玩這個遊戲,並記錄他們的行為。然後,可以透過選擇類似於遊戲專家的「正確」動作來訓練模型。
但這實際上並不是人類學習的方式。人類可以在無指導的情況下,自學像 Catch 這樣的遊戲。這非常有用。想象一下,你如果每次想學習像 Catch 一樣簡單的東西,就必須僱傭一批專家玩這個遊戲上千次!這必然非常昂貴而緩慢。
而在強化學習中,模型不會根據標記的資料訓練,而是透過以往的經歷。
深度強化學習強化學習受行為心理學啟發。
我們並不為模型提供「正確的」行為,而是給予獎勵和懲罰。該模型接受關於當前環境狀態的資訊(例如計算機遊戲螢幕)。然後,它將輸出一個動作,就像遊戲手柄一樣。環境將對這個動作做出迴應,並提供下一個狀態和獎懲行為。
據此,模型學習並尋找最大化獎勵的行為。
實際上,有很多方式能夠做到這一點。下面,讓我們瞭解一下 Q-Learning。利用 Q-Learning 訓練計算機玩 Atari 遊戲的時候,Q-Learning 曾引起了轟動。現在,Q-Learning 依然是一個有重大意義的概念。大多數現代的強化學習演算法,都是 Q-Learning 的一些改進。
理解 Q-Learning
瞭解 Q-Learning 的一個好方法,就是將 Catch 遊戲和下象棋進行比較。
在這兩種遊戲中,你都會得到一個狀態 S。在象棋中,這代表棋盤上棋子的位置。在 Catch 遊戲中,這代表水果和籃子的位置。
然後,玩家要採取一個動作,稱作 A。在象棋中,玩家要移動一個棋子。而在 Catch 遊戲中,這代表著將籃子向左、向右移動,或是保持在當前位置。
據此,會得到一些獎勵 R 和一個新狀態 S"。
Catch 遊戲和象棋的一個共同點在於,獎勵並不會立即出現在動作之後。
在 Catch 遊戲中,只有在水果掉到籃子裡或是撞到地板上時你才會獲得獎勵。而在象棋中,只有在整盤棋贏了或輸了之後,才會獲得獎勵。這也就是說,獎勵是稀疏分佈的(sparsely distributed)。大多數時候,R 保持為零。
產生的獎勵並不總是前一個動作的結果。也許,很早之前採取的某些動作才是獲勝的關鍵。要弄清楚哪個動作對最終的獎勵負責,這通常被稱為信度分配問題(credit assignment problem)。
由於獎勵的延遲性,優秀的象棋選手並不會僅透過最直接可見的獎勵來選擇他們的落子方式。相反,他們會考慮預期未來獎勵(expected future reward),並據此進行選擇。
例如,他們不僅要考慮下一步是否能夠消滅對手的一個棋子。他們也會考慮那些從長遠的角度有益的行為。
在 Q-Learning 中,我們根據最高的預期未來獎勵選行動。我們使用 Q 函式進行計算。這個數學函式有兩個變數:遊戲的當前狀態和給定的動作。
因此,我們可以將其記為 Q(state,action)。
在 S 狀態下,我們將估計每個可能的動作 A 所帶來的的回報。我們假定在採取行動 A 且進入下一個狀態 S" 以後,一切都很完美。
對於給定狀態 S 和動作 A,預期未來獎勵 Q(S,A)被計算為即時獎勵 R 加上其後的預期未來獎勵 Q(S",A")。我們假設下一個動作 A" 是最優的。
Because there is uncertainty about the future, we discount Q(S",A") by the factor gamma γ.
由於未來的不確定性,我們用 γ 因子乘以 Q(S",A")表示折扣:
Q(S,A) = R + γ * max Q(S",A")
象棋高手擅長在心裡估算未來回報。換句話說,他們的 Q 函式 Q(S,A)非常精確。
大多數象棋訓練都是圍繞著發展更好的 Q 函式進行的。玩家使用棋譜學習,從而瞭解特定動作如何發生,以及給定的動作有多大可能會導致勝利。
但是,機器如何評估一個 Q 函式的好壞呢?這就是神經網路大展身手的地方了。
最終迴歸玩遊戲的時候,我們會產生很多「經歷」,包括以下幾個部分:
初始狀態,S
採取的動作,A
獲得的獎勵,R
下一狀態,S"
這些經歷就是我們的訓練資料。我們可以將估算 Q(S,A)的問題定義為迴歸問題。為了解決這個問題,我們可以使用神經網路。
給定一個由 S 和 A 組成的輸入向量,神經網路需要能預測 Q(S,A)的值等於目標:R + γ * max Q(S",A")。
如果我們能很好地預測不同狀態 S 和不同行為 A 的 Q(S,A),我們就能很好地逼近 Q 函式。請注意,我們透過與 Q(S,A)相同的神經網路估算 Q(S",A")。
訓練過程給定一批經歷 <S,A,R,S">,其訓練過程如下:
1、對於每個可能的動作 A"(向左、向右、不動),使用神經網路預測預期未來獎勵 Q(S",A");
2、選擇 3 個預期未來獎勵中的最大值,作為 max Q(S",A");
3、計算 r + γ * max Q(S",A"),這就是神經網路的目標值;
4、使用損失函式(loss function)訓練神經網路。損失函式可以計算預測值離目標值的距離。此處,我們使用 0.5 * (predicted_Q(S,A)—target)² 作為損失函式。
在遊戲過程中,所有的經歷都會被儲存在回放儲存器(replay memory)中。這就像一個儲存 <S,A,R,S"> 對的簡單快取。這些經歷回放類同樣能用於準備訓練資料。讓我們看看下面的程式碼:
class ExperienceReplay(object):
"""
During gameplay all the experiences < s, a, r, s』 > are stored in a replay memory.
In training, batches of randomly drawn experiences are used to generate the input and target for training.
"""
def __init__(self, max_memory=100, discount=.9):
"""
Setup
max_memory: the maximum number of experiences we want to store
memory: a list of experiences
discount: the discount factor for future experience
In the memory the information whether the game ended at the state is stored seperately in a nested array
[...
[experience, game_over]
[experience, game_over]
...]
"""
self.max_memory = max_memory
self.memory = list()
self.discount = discount
def remember(self, states, game_over):
#Save a state to memory
self.memory.append([states, game_over])
#We don"t want to store infinite memories, so if we have too many, we just delete the oldest one
if len(self.memory) > self.max_memory:
del self.memory[0]
def get_batch(self, model, batch_size=10):
#How many experiences do we have?
len_memory = len(self.memory)
#Calculate the number of actions that can possibly be taken in the game
num_actions = model.output_shape[-1]
#Dimensions of the game field
env_dim = self.memory[0][0][0].shape[1]
#We want to return an input and target vector with inputs from an observed state...
inputs = np.zeros((min(len_memory, batch_size), env_dim))
#...and the target r + gamma * max Q(s』,a』)
#Note that our target is a matrix, with possible fields not only for the action taken but also
#for the other possible actions. The actions not take the same value as the prediction to not affect them
targets = np.zeros((inputs.shape[0], num_actions)
#We draw states to learn from randomly
for i, idx in enumerate(np.random.randint(0, len_memory,
size=inputs.shape[0])):
"""
Here we load one transition <s, a, r, s』> from memory
state_t: initial state s
action_t: action taken a
reward_t: reward earned r
state_tp1: the state that followed s』
"""
state_t, action_t, reward_t, state_tp1 = self.memory[idx][0]
#We also need to know whether the game ended at this state
game_over = self.memory[idx][1]
#add the state s to the input
inputs[i:i+1] = state_t
# First we fill the target values with the predictions of the model.
# They will not be affected by training (since the training loss for them is 0)
targets[i] = model.predict(state_t)[0]
"""
If the game ended, the expected reward Q(s,a) should be the final reward r.
Otherwise the target value is r + gamma * max Q(s』,a』)
"""
# Here Q_sa is max_a"Q(s", a")
Q_sa = np.max(model.predict(state_tp1)[0])
#if the game ended, the reward is the final reward
if game_over: # if game_over is True
targets[i, action_t] = reward_t
else:
# r + gamma * max Q(s』,a』)
targets[i, action_t] = reward_t + self.discount * Q_sa
return inputs, targets
定義模型現在讓我們定義這個利用 Q-Learning 學習 Catch 遊戲的模型。
我們使用 Keras 作為 Tensorflow 的前端。我們的基準模型是一個簡單的三層密集網路。
這個模型在簡單版的 Catch 遊戲當中表現很好。你可以在 GitHub 中找到它的完整實現過程。
你也可以嘗試更加複雜的模型,測試其能否獲得更好的效能。
num_actions = 3 # [move_left, stay, move_right]
hidden_size = 100 # Size of the hidden layers
grid_size = 10 # Size of the playing field
def baseline_model(grid_size,num_actions,hidden_size):
#seting up the model with keras
model = Sequential()
model.add(Dense(hidden_size, input_shape=(grid_size**2,), activation="relu"))
model.add(Dense(hidden_size, activation="relu"))
model.add(Dense(num_actions))
model.compile(sgd(lr=.1), "mse")
return model
探索Q-Learning 的最後一種成分是探索。
日常生活的經驗告訴我們,有時候你得做點奇怪的事情或是隨機的手段,才能發現是否有比日常動作更好的東西。
Q-Learning 也是如此。總是做最好的選擇,意味著你可能會錯過一些從未探索的道路。為了避免這種情況,學習者有時會新增一個隨機項,而未必總是用最好的。
我們可以將定義訓練方法如下:
def train(model,epochs):
# Train
#Reseting the win counter
win_cnt = 0
# We want to keep track of the progress of the AI over time, so we save its win count history
win_hist = []
#Epochs is the number of games we play
for e in range(epochs):
loss = 0.
#Resetting the game
env.reset()
game_over = False
# get initial input
input_t = env.observe()
while not game_over:
#The learner is acting on the last observed game screen
#input_t is a vector containing representing the game screen
input_tm1 = input_t
#Take a random action with probability epsilon
if np.random.rand() <= epsilon:
#Eat something random from the menu
action = np.random.randint(0, num_actions, size=1)
else:
#Choose yourself
#q contains the expected rewards for the actions
q = model.predict(input_tm1)
#We pick the action with the highest expected reward
action = np.argmax(q[0])
# apply action, get rewards and new state
input_t, reward, game_over = env.act(action)
#If we managed to catch the fruit we add 1 to our win counter
if reward == 1:
win_cnt += 1
#Uncomment this to render the game here
#display_screen(action,3000,inputs[0])
"""
The experiences < s, a, r, s』 > we make during gameplay are our training data.
Here we first save the last experience, and then load a batch of experiences to train our model
"""
# store experience
exp_replay.remember([input_tm1, action, reward, input_t], game_over)
# Load batch of experiences
inputs, targets = exp_replay.get_batch(model, batch_size=batch_size)
# train model on experiences
batch_loss = model.train_on_batch(inputs, targets)
#sum up loss over all batches in an epoch
loss += batch_loss
win_hist.append(win_cnt)
return win_hist
我將這個遊戲機器人訓練了 5000 個 epoch,結果表現得很不錯!
Catch 機器人的動作
正如你在上述動圖中看到的那樣,機器人可以抓住從天空中掉落的蘋果。
為了將這個模型學習的過程視覺化,我繪製了每一個 epoch 的勝利移動平均線,結果如下:
接下來做什麼?現在,你已經對強化學習有了初步的直覺瞭解。我建議仔細閱讀該教程的完整程式碼。你也可以試驗看看。
你可能還想看看 Arthur Juliani 的系列介紹(https://medium.com/emergent-future/simple-reinforcement-learning-with-tensorflow-part-0-q-learning-with-tables-and-neural-networks-d195264329d0)。如果你需要一個更加正式的入門課,可以看看
Stanford"s CS 234:http://web.stanford.edu/class/cs234/index.html
Berkeley"s CS 294:http://rll.berkeley.edu/deeprlcourse/
或是 David Silver"s lectures from UCL:http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html
訓練你的強化學習技能最好是透過 OpenAI"s Gym(https://gym.openai.com/envs/),它使用標準化的應用程式介面(API)提供了一系列訓練環境。