Difference between r1.5 and the current
@@ -1,10 +1,24 @@
## =인코더,encoder =,encoder 인코더 encoder
=부호화기, ?
Opp. [[디코더,decoder]]
[[encoder]]
Srch:encoder
Ndict:encoder
디코더는 n개의 입력단자, (최대?) 2^^n^^개의 출력단자.
'''인코더'''는 (최대?) 2^^n^^개의 입력단자, n개의 출력단자.
cf.
[[멀티플렉서,multiplexer]]도 줄어듦. 이건 n개의 입력단자, 입력선을 선택하여 단일 출력단자로 송신.
----
{=부호화기, ?
Opp. [[디코더,decoder]]
[[encoder]]
Sub:
priority_encoder
{
priority encoder
'''priority encoder'''
} // priority encoder ... NN:"priority encoder" Ggl:"priority encoder"
Ndict:encoder
@@ -33,7 +47,7 @@
[[임베딩,embedding]]
[[WpKo:BERT_(언어_모델)]]
Up: [[언어모형,language_model]]
[[WpKo:BERT_(언어_모델)]]
[[WpEn:BERT_(language_model)
[[WpEn:BERT_(language_model)]]
... Ggl:BERTUp: [[언어모형,language_model]]
디코더는 n개의 입력단자, (최대?) 2n개의 출력단자.
인코더는 (최대?) 2n개의 입력단자, n개의 출력단자.
인코더는 (최대?) 2n개의 입력단자, n개의 출력단자.
{
=부호화기, ?
=부호화기, ?
Opp. 디코더,decoder
Sub:
priority_encoder
{
priority encoder
priority encoder
} // priority encoder ... priority encoder priority encoder
priority_encoder
{
priority encoder
priority encoder
} // priority encoder ... priority encoder priority encoder
}
Opp. 디코더,decoder
MKL
BERT,Bidirectional_Encoder_Representations_from_Transformers |=,BERT BERT
BERT,Bidirectional_Encoder_Representations_from_Transformers |=,BERT BERT
{
Bidirectional Encoder Representations from Transformers (BERT)
MKL
Attention_Is_All_You_Need
인코더,encoder
트랜스포머,transformer
표현,representation
임베딩,embedding
BERT_(언어_모델)
BERT_(language_model)
... BERT
Up: 언어모형,language_model
}
Bidirectional Encoder Representations from Transformers (BERT)
MKL
Attention_Is_All_You_Need
인코더,encoder
트랜스포머,transformer
표현,representation
임베딩,embedding
BERT_(언어_모델)
BERT_(language_model)
... BERT
Up: 언어모형,language_model
}