Pada setiap layer pada jaringan syaraf tiruan terdapat fungsi aktivasi. fungsi ini adalah fungsi umum yang akan digunakan untuk membawa input menuju output yang diinginkan. Fungsi aktivasi inilah yang akan menentukan besarnya bobot. Penggunaan fungsi aktivasi tergantung pada kebutuhan dan desired output. Contoh dari fungsi aktivasi ini antara lain:
1. Linier / Pureline
fungsi linier akan membawa input ke output yang sebanding. fungsi ini digambarkan sebagai berikut:
sumber : mathworks online
algoritma dari fungsi ini adalah:
a = n
2. Tansig
Tansig adalah fungsi sigmoid tangen yang digunakan sebagai fungsi aktivasi sumber : mathworks online
Fungsi ini akan membawa nilai input pada output dengan menggunakan rumus hyperbolic tangen sigmoid. Nilai maksimal output dari fungsi ini adalah 1 dan minimal -1.
algoritma dari fungsi ini adalah:
a = tansig(n) = 2/(1+exp(-2*n))-1
3. Logsig
Logsig = Log – Sigmoid adalah fungsi transfer yang membawa input ke output dengan penghitungan log-sigmoid. Nilai outputnya antara -1 hingga 1.
sumber : mathworks online
algoritma dari fungsi ini adalah:
a = logsig(n) = 1 / (1 + exp(-n))
4. Hardlim dan Hardlims
Fungsi transfer hardlim dan hardlims digunakan untuk membawa input ke output yang terbatas. biasanya fungsi ini mempunyai dua jenis output saja yaitu 0 dan 1 (hardlim) atau -1 dan 1 (hardlims)
sumber : mathworks online
Algoritma dari Hardlim:
- jika n >= 0 maka a = 1
- jika n < 0 maka a = 0
sumber : mathworks online
Algoritma dari Hardlims:
- jika n >= 0 maka a = 1
- jika n < 0 maka a = -1
Masih ada banyak fungsi transfer yang biasa digunakan di jaringan syaraf tiruan antara lain comset, netinv, poslin, radbas, satlin, satlins, softmax, tribas, dan lain-lain