Double Q-learning

Reinforcement Learning com Gymnasium em Python

Fouad Trad

Machine Learning Engineer

Q-learning

  • Estima a função ótica de valor-ação
  • Superestima Q ao atualizar pelo Q máximo
  • Pode levar a uma política subótima

 

Imagem com a fórmula da atualização do Q-learning.

Reinforcement Learning com Gymnasium em Python

Double Q-learning

  • Mantém duas tabelas Q
  • Cada tabela é atualizada com base na outra
  • Reduz o risco de superestimar Q

Imagem com duas tabelas Q, Q0 e Q1, e cada uma é atualizada com base na outra.

Reinforcement Learning com Gymnasium em Python

Atualizações no Double Q-learning

  • Seleciona uma tabela aleatoriamente

Imagem com duas tabelas Q, Q0 e Q1, e cada uma é atualizada com base na outra.

Reinforcement Learning com Gymnasium em Python

Atualização de Q0

Imagem com duas tabelas Q, Q0 e Q1, e cada uma é atualizada com base na outra.

Imagem de como achar a melhor próxima ação ao atualizar Q0.

Imagem com a regra de atualização de Q0.

Reinforcement Learning com Gymnasium em Python

Atualização de Q1

Imagem com duas tabelas Q, Q0 e Q1, e cada uma é atualizada com base na outra.

Imagem de como achar a melhor próxima ação ao atualizar Q1.

Imagem com a regra de atualização de Q1.

Reinforcement Learning com Gymnasium em Python

Double Q-learning

Imagem com duas tabelas Q, Q1 e Q2, e cada uma é atualizada com base na outra.

  • Reduz viés de superestimação
  • Alterna entre atualizações de Q0 e Q1
  • As duas tabelas contribuem para o aprendizado
Reinforcement Learning com Gymnasium em Python

Implementação com Frozen Lake

env = gym.make('FrozenLake-v1', 
               is_slippery=False)

num_states = env.observation_space.n
n_actions = env.action_space.n
Q = [np.zeros((num_states, n_actions))] * 2

num_episodes = 1000 alpha = 0.5 gamma = 0.99

Imagem de um agente navegando no ambiente Frozen Lake.

Reinforcement Learning com Gymnasium em Python

Implementando update_q_tables()

def update_q_tables(state, action, reward, next_state):
    # Select a random Q-table index (0 or 1)
    i = np.random.randint(2)

# Update the corresponding Q-table best_next_action = np.argmax(Q[i][next_state])
Q[i][state, action] = (1 - alpha) * Q[i][state, action] + alpha * (reward + gamma * Q[1-i][next_state, best_next_action])

Imagem mostrando a regra de atualização de Q1.

Imagem mostrando a regra de atualização de Q2.

Reinforcement Learning com Gymnasium em Python

Treino

for episode in range(num_episodes):
    state, info = env.reset()
    terminated = False

    while not terminated:
        action = np.random.choice(n_actions)  
        next_state, reward, terminated, truncated,  info = env.step(action)
        update_q_tables(state, action, reward, next_state)
        state = next_state

final_Q = (Q[0] + Q[1])/2 # OR final_Q = Q[0] + Q[1]
Reinforcement Learning com Gymnasium em Python

Política do agente

policy = {state: np.argmax(final_Q[state]) 
          for state in range(num_states)}
print(policy)
{ 0: 1,  1: 0,  2: 0,  3: 0, 
  4: 1,  5: 0,  6: 1,  7: 0, 
  8: 2,  9: 1, 10: 1, 11: 0, 
 12: 0, 13: 2, 14: 2, 15: 0}

Imagem mostrando a política aprendida pelo agente, indicando a ação em cada estado.

Reinforcement Learning com Gymnasium em Python

Vamos praticar!

Reinforcement Learning com Gymnasium em Python

Preparing Video For Download...