Main Content

La traduction de cette page n'est pas à jour. Cliquez ici pour voir la dernière version en anglais.

tansig

Fonction de transfert sigmoïde tangente hyperbolique

Description

exemple

Conseil

Pour utiliser une activation tangente hyperbolique pour le Deep Learning, utilisez la fonction tanhLayer ou la méthode tanh dlarray.

A = tansig(N) prend une matrice de vecteurs d’entrée nette, N, et renvoie la matrice A de dimension S x Q des éléments de N mappés sur [-1 1].

tansig est une fonction de transfert neuronale. Les fonctions de transfert calculent la sortie d’une couche à partir de son entrée nette.

Exemples

réduire tout

Cet exemple montre comment calculer et tracer la fonction de transfert sigmoïde tangente hyperbolique d’une matrice d’entrée.

Créez la matrice d’entrée, n. Appelez ensuite la fonction tansig et tracez les résultats.

n = -5:0.1:5;
a = tansig(n);
plot(n,a)

Attribuez cette fonction de transfert à la couche i d’un réseau.

net.layers{i}.transferFcn = 'tansig';

Arguments d'entrée

réduire tout

Les vecteurs colonnes d’entrée nette sont spécifiés comme une matrice S x Q.

Arguments de sortie

réduire tout

Les vecteurs de sortie sont renvoyés sous la forme d'une matrice S x Q, où chaque élément de N est mappé de l’intervalle [-inf inf] sur l’intervalle [-1 1] avec une fonction « en S ».

Algorithmes

a = tansig(N) = 2/(1+exp(-2*N))-1

Cette opération est mathématiquement équivalente à tanh(N).

Références

[1] Vogl, T. P., et al. ‘Accelerating the Convergence of the Back-Propagation Method’. Biological Cybernetics, vol. 59, no. 4–5, Sept. 1988, pp. 257–63. DOI.org (Crossref), doi:10.1007/BF00332914.

Historique des versions

Introduit avant R2006a

Voir aussi

|