Fonctions d’activation

Introduction au Deep Learning en Python

Dan Becker

Data Scientist and contributor to Keras and TensorFlow libraries

Fonctions linéaires vs non linéaires

ch1_3.003.png

Introduction au Deep Learning en Python

Fonctions d’activation

  • Appliqué aux entrées du nœud pour produire le résultat du nœud
Introduction au Deep Learning en Python

Amélioration de notre réseau neuronal

ch1_3.007.png

Introduction au Deep Learning en Python

Fonctions d’activation

ch1_3.009.png

Introduction au Deep Learning en Python

ReLU (activation linéaire rectifiée)

ch1_3.011.png

Introduction au Deep Learning en Python

Fonctions d’activation

import numpy as np
input_data = np.array([-1, 2])
weights = {'node_0': np.array([3, 3]),
               'node_1': np.array([1, 5]),
               'output': np.array([2, -1])}
node_0_input = (input_data * weights['node_0']).sum()
node_0_output = np.tanh(node_0_input)
node_1_input = (input_data * weights['node_1']).sum()
node_1_output = np.tanh(node_1_input)
hidden_layer_outputs = np.array([node_0_output, node_1_output])
output = (hidden_layer_output * weights['output']).sum()
print(output)
1.2382242525694254
Introduction au Deep Learning en Python

Passons à la pratique !

Introduction au Deep Learning en Python

Preparing Video For Download...