SARSA esperado

Reinforcement Learning com Gymnasium em Python

Fouad Trad

Machine Learning Engineer

SARSA esperado

  • Método TD
  • Técnica model-free
  • Atualiza a Q-table de forma diferente de SARSA e Q-learning

Diagrama mostrando as etapas do SARSA esperado: inicializar a Q-table, escolher uma ação, receber recompensa do ambiente e atualizar a tabela. O agente repete o ciclo até convergir após certo número de episódios.

Reinforcement Learning com Gymnasium em Python

Atualização do SARSA esperado

SARSA

Imagem mostrando a fórmula matemática da regra de atualização do SARSA.

Q-learning

Imagem mostrando a fórmula matemática da regra de atualização do Q-learning.

SARSA esperado

Imagem mostrando a fórmula matemática da regra de atualização do SARSA esperado.

Reinforcement Learning com Gymnasium em Python

Valor esperado do próximo estado

Imagem mostrando a fórmula matemática da regra de atualização do SARSA esperado.

  • Considera todas as ações

Imagem mostrando a fórmula do valor-Q esperado para o próximo estado.

  • Ações aleatórias → probabilidades iguais

Imagem mostrando a fórmula do valor-Q esperado para o próximo estado quando ações são escolhidas aleatoriamente com probabilidades iguais.

Reinforcement Learning com Gymnasium em Python

Implementação com Frozen Lake

env = gym.make('FrozenLake-v1', 
               is_slippery=False)

num_states = env.observation_space.n
num_actions = env.action_space.n
Q = np.zeros((num_states, num_actions))

gamma = 0.99 alpha = 0.1 num_episodes = 1000

Imagem do ambiente Frozen Lake

Reinforcement Learning com Gymnasium em Python

Regra de atualização do SARSA esperado

def update_q_table(state, action, next_state, reward):

expected_q = np.mean(Q[next_state])
Q[state, action] = (1-alpha) * Q[state, action] + alpha * (reward + gamma * expected_q)

Imagem mostrando a fórmula matemática da regra de atualização do SARSA esperado.

Reinforcement Learning com Gymnasium em Python

Treino

for i in range(num_episodes):
    state, info = env.reset()    
    terminated = False  

while not terminated: action = env.action_space.sample()
next_state, reward, terminated, truncated, info = env.step(action)
update_q_table(state, action, next_state, reward) state = next_state
Reinforcement Learning com Gymnasium em Python

Política do agente

policy = {state: np.argmax(Q[state]) 
          for state in range(num_states)}
print(policy)
{ 0: 1,  1: 2,  2: 1,  3: 0, 
  4: 1,  5: 0,  6: 1,  7: 0, 
  8: 2,  9: 2, 10: 1, 11: 0, 
 12: 0, 13: 2, 14: 2, 15: 0}

Imagem mostrando a política aprendida pelo agente, indicando a ação em cada estado.

Reinforcement Learning com Gymnasium em Python

Vamos praticar!

Reinforcement Learning com Gymnasium em Python

Preparing Video For Download...