인공신경망,artificial_neural_network,ANN


Sub:
CNN convolutional_neural_network
RNN recurrent_neural_network
{
sequential data 다룸
그래서
speech recognition, machine translation ... 에 활용

RNNs are just neural networks that:
share weights across multiple layers,
take an input at each layer,
and have a variable number of layers

state_machine
internal_state

RNNs can be considered as layered, feed-forward networks with shared weights. // feedforward_network

Backpropagation Through Time (BPTT)

Truncated BPTT
When a sequence is large, unrolling RNNs is both computationally and memory prohibitive
Backpropagated gradients are truncated after K steps
– Carry hidden states forward in time forever

vanishing gradient : 시간이 지날수록 0으로
exploding gradient : 시간이 지날수록 폭발적으로 커지는
Very hard to capture long-term dependencies

gradient clipping : Scaling down the gradients
– Rescale norm of the gradients as it goes over a threshold (𝜂)

Resolving Vanishing Gradients // vanishing_gradient gradient_vanishing 기울기소실,gradient_vanishing 해결책
• A few approaches
– Proper initialization of the weight matrices
– Proper activation functions such as ReLU
• Derivative of ReLU is either 0 or 1
– Adopt gating mechanisms! // gating_mechanism ... Google:gating_mechanism
• Long short-term memory (LSTM) // long_short-term_memory
• Gated recurrent unit (GRU) // gated_recurrent_unit

장단기기억 LSTM
{
장단기 기억 ?
장단기 메모리 ?

RNN의 long-term dependency(장기 의존성)문제를 해결하기 위한 모델.

장단기 기억((딥 러닝 순환신경망의 장기 의존성(앞에서 수집한 자료가 뒤로 가면 사라져 신경망의 성능이 저하되는 것) 문제를 보완하기 위해, 앞부분의 정보를 오랫동안 기억하도록 설계한 정보 처리 모델))[1]

vanishing gradient problem (VG:기울기소실,gradient_vanishing)을 해결하는.

input gate 입력 게이트
forget gate 망각 게이트? 삭제 게이트?
output gate 출력 게이트
cell state


GRU gated_recurrent_unit
{
RNN의 gating mechanism 중 하나.
기존 RNN의 장기의존성 문제 해결을 위해 고안.

LSTM보다 단순한 구조.
input gate와 forget gate가 결합된 update gate를 사용하여 정보 흐름을 제어.


}

WpKo:순환_신경망
WpEn:Recurrent_neural_network
}
DBN deep_belief_network { 2006년 발표? 외면받던 ANN을 다시 주류 AI 방법론으로 끌어올린 ? ... rel. 심층학습,deep_learning ? }
DNN deep_neural_network { rel. 심층학습,deep_learning? }
FNN feedforward_neural_network
{
WpKo:순방향_신경망
WpEn:Feedforward_neural_network
}
FCN - fully_convolutional_network ... Google:fully_convolutional_network
{
encoder / down-sampling contraction path
decoder / up-sampling expansion path
}

...

CNN - 이미지처리,image_processing에 주로?
RNN -

이하 주로 이미지처리? CNN? 모두 심층학습,deep_learning 분류?



1. LeNet

LeNet
{
르넷?
Yann_LeCun 이름에서?
}

2. GoogLeNet

GoogLeNet
{
inception module?
}

3. VGGNet

VGGNet
{
pagename?
VGG넷 ?
Oxford의 VGG(Visual Geometry Group)에서 만든.
2014년 ILSVRC 2위.
16 layers.
}

4. AlexNet

AlexNet
{
8 layers.
}

5. ResNet


F(x)+x=H(x)
F(x)=H(x)-x //// <- Residual

CNN은 H(x)를 얻는 게 목적인데,
ResNet은 F(x)+x를 최소화,minimization하는 것을 목적으로 한다.
x는 변할 수 없으므로, F(x)를 최소화하는 것이 목적이다. (즉 residual을 최소화하는 것이 목적이다.)

F(x) : weight layer를 통과한 값
identity mapping = skip connection = identity shortcut connection : x : weight layer를 통과하지 않은(바로 skip한) 값, input과 output이 같은 차원
residual mapping : 위 둘의 합, 즉 F(x) + x
residual block : 단위 구조?
residual network - residual block들이 쌓인 것, 즉 ResNet


tmp bmks ko
(ResNet)Deep Residual Learning for Image Recognition 논문 리뷰
https://tobigs.gitbook.io/tobigs/deep-learning/computer-vision/resnet-deep-residual-learning-for-image-recognition


... Google:ResNet Naver:ResNet
}

6. DenseNet

dense block
... Google:DenseNet Naver:DenseNet

7. MobileNet

Built based upon depth-wise separable convolution
• Depth-wise convolution & point-wise convolution

8. EfficientNet

scaling을 더 flexible하게?
depth width resolution 이 셋을 balance?


Misc

각종 PascalCase로 이름지은 뭐뭐뭐Net은 언어학,linguistics (esp 전산언어학,computational_linguistics 말뭉치언어학,corpus_linguistics?? qqq ) 에서도 자주 사용하는 이름짓기 방법.




QQQ. ANN은 아주 크고 복잡한 regression_model인가? 일반화?