💒
CNN Mimarisi

Convolutional Neural Network yerine bu kısaltılmış ad kullanılmakta
Parametre | Terim | Açıklama |
$f$ | Filter | Filtre boyutu |
$s$ | Stride | Adım sayısı |
$p$ | Padding | Doldurma miktarı |
$n_{filter}$ | # of filter | Filtre sayısı |

Çok derin ağlarda
avg pooling
diğerlerinde max pooling
kullanılırPooling | Açıklama |
Max Pooling | En büyük pixel değerini alır |
Avarage Pooling | Pixellerin ortalamasını alır |
- En belirgiin özellikleri ortaya çıkarır
- Filtredeki en büyük pixeli alır
- Öğrenme olmaz, sadece işlem hızını etkiler
- Parametre ve gradient descent yok
- Sadece hyperparametreler var
⚠ Neden iyi çalıştığına dair net bir sebep bilinmiyor.

- Parametrelerin (
w
,b
) olmadığı alanlar katman olarak sayılmaz- Pooling alanları bir öncesindeki CONV ile ortak katman olarak ele alınır

- Activation size ilerledikçe azalır
- Convolutional işlemlerinin başladığı
CONV1
katmanında başlayarak azalır
- Çok hızlı azalırsa model verimli çalışmaz

- Superscript $[l]$ denotes an object of the $l^{th}$ layer.
- Example: $a^{[4]}$ is the $4^{th}$ layer activation. $W^{[5]}$ and $b^{[5]}$ are the $5^{th}$ layer parameters.
- Superscript $(i)$ denotes an object from the $i^{th}$ example.
- Example: $x^{(i)}$ is the $i^{th}$ training example input.
- Lowerscript $i$ denotes the $i^{th}$ entry of a vector.
- Example: $a^{[l]}_i$ denotes the $i^{th}$ entry of the activations in layer $l$, assuming this is a fully connected (FC) layer.
- $n_H$, $n_W$ and $n_C$ denote respectively the height, width and number of channels of a given layer. If you want to reference a specific layer $l$, you can also write $n_H^{[l]}$, $n_W^{[l]}$, $n_C^{[l]}$.
- $n{H{prev}}$, $n{W{prev}}$ and $n{C{prev}}$ denote respectively the height, width and number of channels of the previous layer. If referencing a specific layer $l$, this could also be denoted $n_H^{[l-1]}$, $n_W^{[l-1]}$, $n_C^{[l-1]}$.
Last modified 3yr ago