⭐
Ek Bilgiler
- Çalışma alanı sayfanıza girin (dosyaların olduğu yer)
- Alttaki komutu kopyalayın
- Tekrar dosyaların olduğu yere gelin ve orada beliren
workspace.tar.gz
dosyasını indirin
cd ~/work
tar cvfzh ~/workspace.tar.gz *
mv ~/workspace.tar.gz ~/work/workspace.tar.gz
- Alttaki komutu kopyalayın ve tek tek indirin
- İndirdikten sonra dosyaları
cat workspace.tar.gz.part.* > workspace.tar.gz
ile birleştirebilirsiniz
split -b 200m workspace.tar.gz workspace.tar.gz.part.
Her zaman yapılacak iş: Girişler ile ağırlıkları çarp, sabit değişken (sapma) ile topla ve aktivasyon uygula!

Aktivatör Fonksiyonu
- Aktivasyon fonksiyonu kullanılmayan bir sinir ağı sınırlı öğrenme gücüne sahip bir doğrusal bağlanım (linear regression) gibi davranacaktır.
- Birden fazla dereceye sahip olan fonksiyonlara doğrusal olmayan fonksiyonlar deriz
- Ağırlıklar ile ilgili hata değerlerini hesaplamak için yapay sinir ağında hatanın geriye yayılımı algoritması uygulanmaktadır. (Backward Propagation)
Aktivasyon fonksiyonu tüm bu bilgiler ve sizin yapay öğrenme modelinizin gereksinimlerine göre karar vermeniz gereken kritik bir optimizasyon problemidir.
- Sigmoid Fonksiyonu
- ReLU (Rectified Linear Unit) Fonksiyonu
- Derin öğrenme modelleri denemelere bu fonksiyon ile başlanması tavsiye edilir.
- Hız bakımından avantajlıdır. Gradyanların ölmesi gibi bir problemi vardır.
- Genellikle çıkış değil ara katmanlarda kullanılır.
- Softmax Fonksiyonu
- Genelde çıkış için kullanılır.
- Basamak (Step) Fonksiyonu
- Doğrusal (Linear) Fonksiyon
- Hiperbolik Tanjant Fonksiyonu
- Sızıntı (Leaky) ReLU Fonksiyonu
- Swish (A Self-Gated/Kendinden Geçitli) Fonksiyonu
(0, 1) arasıdan olan fonksyionlar *olasılıksal- fonksiyonlardır.

Aktivasyon Fonkisyonlarının Özellikleri
- Otamatik Al-Sat işlemleri ile kullanılır.
Last modified 3yr ago