AKA 가중치
////현재
평균,mean,average에도 내용 있음. TOMERGE
가중평균 (← 가중평균의 넓은 의미)
//이상 세가지 모두 여기에 설명 있음
수학백과: 가중산술평균(https://terms.naver.com/entry.naver?docId=3404932&ref=y&cid=47324&categoryId=47324)
이것의 계산 방식은
벡터,vector의
내적,inner_product/
스칼라곱,scalar_product,dot_product과 rel. 왜인지는 너무 명백하므로 생략. - 잠깐 써보면
{
전체 합이 1이 되는 벡터(이름이 있을텐데 뭐라고 하지? 암튼 전체가
하나,one. rel:
단위,unit,
정규화,normalization.) .. 예를 들어
$\displaystyle [0.6 \; 0.4]$ 와 내적을 하는 것은 전자에 60%, 후자에 40%의 가중치를 ...tbw
}
Ex.
$\displaystyle \vec{w}=[w_1\;w_2\;w_3]$
$\displaystyle \vec{v}=[v_1\;v_2\;v_3]$
$\displaystyle \vec{w}\cdot\vec{v}=w_1v_1+w_2v_2+w_3v_3=\vec{v}\cdot\vec{w}$
이 때, 다음과 같이 (합하기 / 일정 원소만 뽑아내기 / 노름 구하기)가 가능하다.
$\displaystyle \bullet\;\vec{w}=\mathbb{1}$ (일벡터) 일 때, $\displaystyle \vec{w}\cdot\vec{v}$ 는 $\displaystyle \vec{v}$ 벡터의 원소들의 합
$\displaystyle \bullet\;\vec{w}=\vec{e_i}$ 일 때, $\displaystyle \vec{e_2}\cdot\vec{v}$ 는 $\displaystyle \vec{v_2}$
$\displaystyle \bullet\;\vec{w}=\vec{v}$ 일 때, $\displaystyle \vec{v}\cdot\vec{v}=||\vec{v}||^2$
....
가중값,weight 합,sum
}
그래프,graph or
네트워크,network can be 'unweighted or weighted'.
위치 "다시 일반적인 neural network에 대해 생각해보자"
rel. ,bias 와의 관계 설명 - 활성화함수의 식에서 같이 나타남.
활성화,activation(다음
뉴런,neuron에 뭔가를 전달을 "할지 말지"? boolean_function? threshold가 있고 그에 따라 activate or dectivate? chk)조건을 표현하는
활성화함수,activation_function 설명에서, 일단 편의상
$\displaystyle t=\sum_i w_i x_i$
라고 정의.
(물론 $\displaystyle w_i$ 가 weight) 일반적으로는
weight뿐만 아니라 bias도 고려해야 한다. 그 때 식은
$\displaystyle t=\sum_i(w_i x_i+b_i)$
그리고 activation fn 예를 조금 들면 ('활성화함수'에 wrote, del ok)
}