Difference between r1.8 and the current
@@ -11,6 +11,14 @@
Opp. [[디코더,decoder]]
[[encoder]]
Srch:encoder
Ndict:encoder
[[encoder]]
Sub:
priority_encoder
{
priority encoder
'''priority encoder'''
} // priority encoder ... NN:"priority encoder" Ggl:"priority encoder"
Ndict:encoder
@@ -44,3 +52,21 @@
Up: [[언어모형,language_model]]
}
----
Sub:
[[autoencoder]] =,autoencoder =,autoencoder . autoencoder // Srch:autoencoder
{
'''autoencoder'''
보이는번역들은
오토인코더
자동인코더
자동부호화기
...
Sub:
[[VAE,variational_autoencoder]]
Up: [[인코더,encoder]]
}// autoencoder .... NN:autoencoder Bing:autoencoder Ggl:autoencoder
디코더는 n개의 입력단자, (최대?) 2n개의 출력단자.
인코더는 (최대?) 2n개의 입력단자, n개의 출력단자.
인코더는 (최대?) 2n개의 입력단자, n개의 출력단자.
{
=부호화기, ?
=부호화기, ?
Opp. 디코더,decoder
Sub:
priority_encoder
{
priority encoder
priority encoder
} // priority encoder ... priority encoder priority encoder
priority_encoder
{
priority encoder
priority encoder
} // priority encoder ... priority encoder priority encoder
}
Opp. 디코더,decoder
MKL
BERT,Bidirectional_Encoder_Representations_from_Transformers |=,BERT BERT
BERT,Bidirectional_Encoder_Representations_from_Transformers |=,BERT BERT
{
Bidirectional Encoder Representations from Transformers (BERT)
MKL
Attention_Is_All_You_Need
인코더,encoder
트랜스포머,transformer
표현,representation
임베딩,embedding
BERT_(언어_모델)
BERT_(language_model)
... BERT
Up: 언어모형,language_model
}
Bidirectional Encoder Representations from Transformers (BERT)
MKL
Attention_Is_All_You_Need
인코더,encoder
트랜스포머,transformer
표현,representation
임베딩,embedding
BERT_(언어_모델)
BERT_(language_model)
... BERT
Up: 언어모형,language_model
}
보이는번역들은
오토인코더
자동인코더
자동부호화기
...
오토인코더
자동인코더
자동부호화기
...