46 lines
2.3 KiB
Markdown
46 lines
2.3 KiB
Markdown
|
|
# Tutoriel tensorflow
|
||
|
|
|
||
|
|
La vidéo du tutoriel se trouve à l'adresse suivante:
|
||
|
|
https://www.youtube.com/watch?v=QaazrkwooFA
|
||
|
|
|
||
|
|
N'hésitez pas à faire des commentaires sur youtube
|
||
|
|
|
||
|
|
## Test de différentes fonctions sur le programme du tutoriel #2
|
||
|
|
|
||
|
|
Les graphiques suivants montrent les différentes courbes d'apprentissage réalisées avec le programme du tutoriel #2 (https://www.youtube.com/watch?v=mUyRdiQRJBI). Seule la fonction d'activation est changée.
|
||
|
|
L'apprentissage se fait sur 200 cycles et prend environ 35 minutes avec une GeForce 1080; le temps reste sensiblement le même quelque soit la fonction.
|
||
|
|
|
||
|
|
#### Fonction d'activation: sigmoid (tn.nn.sigmoid)
|
||
|
|

|
||
|
|
|
||
|
|
#### Fonction d'activation: tangente hyperbolique (tn.nn.tanh)
|
||
|
|

|
||
|
|
|
||
|
|
#### Fonction d'activation: Unité de Rectification Linéaire (tn.nn.relu)
|
||
|
|

|
||
|
|
|
||
|
|
#### Fonction d'activation: Leaky Relu (tn.nn.leaky_relu)
|
||
|
|

|
||
|
|
|
||
|
|
#### Fonction d'activation: Unité Exponentielle Linéaire (tn.nn.selu)
|
||
|
|

|
||
|
|
|
||
|
|
#### Ci-dessous, l'ensemble des fonctions dans un même graphique:
|
||
|
|
|
||
|
|
#### Erreur sur la base d entrainement:
|
||
|
|

|
||
|
|
|
||
|
|
#### Erreur sur la base de test:
|
||
|
|

|
||
|
|
|
||
|
|
## VGGNet sur CIFAR10
|
||
|
|
|
||
|
|
N'oubliez pas de récuperer la base cifar10 (binary version) à l'adresse suivante:
|
||
|
|
https://www.cs.toronto.edu/~kriz/cifar.html
|
||
|
|
|
||
|
|
L'entrainement prend environ 2h40 sur une GeForce 1080
|
||
|
|
|
||
|
|
#### Graph de l'entrainement:
|
||
|
|

|
||
|
|
|