Difference between r1.6 and the current
@@ -1,10 +1,24 @@
## =인코더,encoder =,encoder 인코더 encoder
=부호화기, ?
Opp. [[디코더,decoder]]
[[encoder]]
Srch:encoder
Ndict:encoder
디코더는 n개의 입력단자, (최대?) 2^^n^^개의 출력단자.
'''인코더'''는 (최대?) 2^^n^^개의 입력단자, n개의 출력단자.
cf.
[[멀티플렉서,multiplexer]]도 줄어듦. 이건 n개의 입력단자, 입력선을 선택하여 단일 출력단자로 송신.
----
{=부호화기, ?
Opp. [[디코더,decoder]]
[[encoder]]
Sub:
priority_encoder
{
priority encoder
'''priority encoder'''
} // priority encoder ... NN:"priority encoder" Ggl:"priority encoder"
Ndict:encoder
@@ -38,3 +52,21 @@
Up: [[언어모형,language_model]]
}
----
Sub:
[[autoencoder]] =,autoencoder =,autoencoder . autoencoder // Srch:autoencoder
{
'''autoencoder'''
보이는번역들은
오토인코더
자동인코더
자동부호화기
...
Sub:
[[VAE,variational_autoencoder]]
Up: [[인코더,encoder]]
}// autoencoder .... NN:autoencoder Bing:autoencoder Ggl:autoencoder
디코더는 n개의 입력단자, (최대?) 2n개의 출력단자.
인코더는 (최대?) 2n개의 입력단자, n개의 출력단자.
인코더는 (최대?) 2n개의 입력단자, n개의 출력단자.
{
=부호화기, ?
=부호화기, ?
Opp. 디코더,decoder
Sub:
priority_encoder
{
priority encoder
priority encoder
} // priority encoder ... priority encoder priority encoder
priority_encoder
{
priority encoder
priority encoder
} // priority encoder ... priority encoder priority encoder
}
Opp. 디코더,decoder
MKL
BERT,Bidirectional_Encoder_Representations_from_Transformers |=,BERT BERT
BERT,Bidirectional_Encoder_Representations_from_Transformers |=,BERT BERT
{
Bidirectional Encoder Representations from Transformers (BERT)
MKL
Attention_Is_All_You_Need
인코더,encoder
트랜스포머,transformer
표현,representation
임베딩,embedding
BERT_(언어_모델)
BERT_(language_model)
... BERT
Up: 언어모형,language_model
}
Bidirectional Encoder Representations from Transformers (BERT)
MKL
Attention_Is_All_You_Need
인코더,encoder
트랜스포머,transformer
표현,representation
임베딩,embedding
BERT_(언어_모델)
BERT_(language_model)
... BERT
Up: 언어모형,language_model
}
보이는번역들은
오토인코더
자동인코더
자동부호화기
...
오토인코더
자동인코더
자동부호화기
...