'''''COPIED FROM LOCAL. 여기에 추가할 것 있으면 local에도 반영''''' /// kms estimator : 추정량 .. KmsE:estimator = https://www.kms.or.kr/mathdict/list.html?key=ename&keyword=estimator [[WtEn:estimator]] = https://en.wiktionary.org/wiki/estimator '''추정량''' 추정기? 라는 번역도 보임. ''//추정치, 추정값이라고 번역한 곳도 있는데... 이는 잘못된것? 아님 혼용해도 되는 것? 아무튼 아래 링크.'' ''//두 페이지를 합칠까?'' compare, mklink: [[추정값,estimate]] =추정값,estimate =,estimate . 추정값 estimate { estimate 추정값 Cmp: [[추정량,estimator]] [[estimand]] Ndict:추정값 Ndict:estimate KmsE:estimate WtEn:estimate WpEn:estimate // tmp from Namu:추정량 2. = https://namu.wiki/w/추정량#s-2 { [[모집단,population]]의 [[모수,parameter]]에 대한 [[추정,estimation]]은 항상 '표본통계량'이라는 정보로 이루어지는데, // Ndict:표본통계량 Ggl:표본통계량 모수를 추정하는 공식을 나타내는 표본통계량 = '''추정량,estimator''' 실제 관찰값을 넣어 계산한 값 = [[추정값,estimate]] } } //추정값 compare, mklink: [[estimand]] =,estimand =,estimand . estimand { /// kms estimand : None.... https://www.kms.or.kr/mathdict/list.html?key=ename&keyword=Estimand (2023-07-26) /// kss에도없음... 2023-08-09 WtEn:estimand Ndict:estimand Ggl:estimand Bing:estimand [[WpEn:Estimand]] = https://en.wikipedia.org/wiki/Estimand … https://search.naver.com/search.naver?where=kdic&query=Estimand … http://google.com/search?q=Estimand } 추정량 설명. chk ; via http://bigdata.dongguk.ac.kr/lectures/med_stat/_book/추정.html#통계량과-추정량 { '''추정량''': [[모수,parameter]] $\theta$ 에 대한 [[추정,estimation]]을 위해 사용되는 [[통계량,statistic]] $\hat{\theta}.$ 예를 들어 [[모평균,population_mean]]의 추정량 = [[표본평균,sample_mean]] [[추정값,estimate]] : 표본들이 관측되었을 때, [[관측값,]]들을 '''추정량'''에 대입한 값. } Sub: [[불편추정량,unbiased_estimator]] [[편의추정량,biased_estimator]] 점추정량 ? point_estimator [[WpEn:Point_estimator]] - redir. to [[WpEn:Point_estimation]] [[점추정,point_estimation]] 구간추정량 ? interval_estimator [[WpEn:Interval_estimator]] - redir. to [[WpEn:Interval_estimation]] = https://en.wikipedia.org/wiki/Interval_estimation [[구간추정,interval_estimation]] 자주 쓰이는 것은 minimum_mean_squared_error (MMSE) estimator. - from https://en.wikipedia.org/wiki/Estimation_theory#Basics 끝부분 consistent_estimator =,consistent_estimator =,consistent_estimator . consistent_estimator { https://encyclopediaofmath.org/wiki/Consistent_estimator } 기타 https://en.wikipedia.org/wiki/Estimation_theory#Estimators 참조해 추가. 일부만 순서대로 밑에적음. 근데 너무 지저분. CLEANUP. 2021-12-29 { 최대가능도추정량 - [[최대가능도,maximum_likelihood]] estimator 즉 MLE .... maximum likelihood estimation, MLE ... [[WpKo:최대가능도_방법]] 최대우도법 베이즈_추정량 - WpKo:베이즈_추정량 https://en.wikipedia.org/wiki/Bayes_estimator [[최소제곱,least_square]] minimum mean squared error (MMSE), also known as Bayes least squared error (BLSE) =====,MMSE =====,BLSE . minimum_mean_squared_error (MMSE), also known as Bayes_least_squared_error (BLSE) [[WpEn:Minimum_mean_square_error]] = https://en.wikipedia.org/wiki/Minimum_mean_square_error Maximum a posteriori (MAP) [[최대사후확률,maximum_a_posteriori,MAP]] =최대사후확률,maximum_a_posteriori,MAP =,maximum_a_posteriori,MAP ===,maximum_a_posteriori ====,MAP . { rel. ? https://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation bmks en https://www.probabilitycourse.com/chapter9/9_1_2_MAP_estimation.php [[WpEn:Maximum_a_posteriori]] = https://en.wikipedia.org/wiki/Maximum_a_posteriori [[WpKo:최대_사후_확률]] = https://ko.wikipedia.org/wiki/최대_사후_확률 "베이즈 통계학에서 사후 확률(事後確率)의 최빈값을 가리킨다" ... [[최빈값,mode]] ... https://www.google.com/search?q=maximum+a+posteriori } // Maximum a posteriori (MAP) Minimum variance unbiased estimator (MVUE) ====,minimum-variance_unbiased_estimator =====,MVUE . minimum-variance_unbiased_estimator { https://en.wikipedia.org/wiki/Minimum-variance_unbiased_estimator "minimum-variance unbiased estimator (MVUE) or uniformly minimum-variance unbiased estimator (UMVUE) " Up: [[불편추정량,unbiased_estimator]] } // MVUE Best linear unbiased estimator (BLUE) ====,best_linear_unbiased_estimator ====,BLUE . best_linear_unbiased_estimator BLUE { 최소 분산의 불편선형추정치(Best Linear Unbiased Estimator, BLUE)[* https://terms.naver.com/entry.naver?docId=3478514&cid=58439&categoryId=58439 [[크리깅,kriging]]이 이것을 구하는 방법임.] 추정치와 실제치의 차이에 대한 기댓값은 0이어야 하고, 동시에 그 차이에 대한 [[분산,variance]]은 최소가 되어야.[* https://terms.naver.com/entry.naver?docId=3477068&cid=58439&categoryId=58439] // from https://everything2.com/title/blue (다른 내용은 모두 색깔 등에 대한 것) "In the world of statistics, blue stands for Best Linear Unbiased Estimator. This is an estimate of a population parameter that is, essentially, better than other estimators of that paramater. For example, of the various measures of central tendency, the mean is blue, the others are not." ... MKLINK: BLUP best_linear_unbiased_prediction =,BLUP =,best_linear_unbiased_prediction . { https://en.wikipedia.org/wiki/Best_linear_unbiased_prediction } ---- [[WpEn:Best_linear_unbiased_estimator]] = https://en.wikipedia.org/wiki/Best_linear_unbiased_estimator redir. to ---> https://en.wikipedia.org/wiki/Gauss%E2%80%93Markov_theorem Up: [[불편추정량,unbiased_estimator]] } // BLUE Markov_chain_Monte_Carlo (MCMC) =======,Markov_chain_Monte_Carlo ====,MCMC . { Markov chain Monte Carlo (MCMC) = bmks ko = https://4four.us/article/2014/11/markov-chain-monte-carlo ---- https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo WpKo:마르코프_연쇄_몬테카를로 HashKr:마르코프_체인_몬테_카를로 = http://wiki.hash.kr/index.php/마르코프_체인_몬테_카를로 [[마르코프_연쇄,Markov_chain]] => http://tomoyo.ivyro.net/123/wiki.php/마르코프_연쇄,Markov_chain ... https://www.google.com/search?q=Markov+chain+Monte+Carlo } https://en.wikipedia.org/wiki/Particle_filter "Particle filters, or sequential Monte Carlo methods" [[WpKo:파티클_필터]] "시뮬레이션에 기반을 둔 예측기술의 하나로 계속적인 몬테카를로 방법이라고도 한다" 입자필터? Kalman filter, and its various derivatives [[칼만_필터,Kalman_filter]] Wiener filter [[Wiener_filter]] } // ... 이런 다양한 추정량들 (estimators) 이 있다. ---- tmp from [[http://bigdata.dongguk.ac.kr/lectures/med_stat/_book/%EC%B6%94%EC%A0%95.html 4.2]] { '''추정량'''은 '''추정자(estimator)'''를 통해 얻은 모수의 추정값 - 이라는 설명도 있음.[* https://throwexception.tistory.com/1048] [[모수,parameter]] $\theta$ 에 대한 [[추정,estimation]]을 위해 쓰이는 [[통계량,statistic]] $\hat{\theta}$ ex. [[모평균,population_mean]]의 '''추정량''' = [[표본평균,sample_mean]] '''추정량'''의 바람직한 성질, 좋은 '''추정량'''을 구하기 위한 기준[* https://throwexception.tistory.com/1048 - chk] * 불편성, 불편향성 (unbiasedness) //불편추정량(unbiased estimator), 편의추정량(biased estimator) 추정량의 기대치([[기대값,expected_value]])가 [[모수,parameter]]에 가까워야 함 * 효율성 efficiency 추정량의 [[분산,variance]]이 작아야 함 * 일치성 consistency [[표본,sample]]이 커질수록 추정량이 [[모수,parameter]]에 가까워져야 함 // http://www.aistudy.com/math/estimate_lee.htm 에 자세히 언급 } ---- rel. [[편향,bias]] 자주 언급 [[편향,bias]] of an [[추정량,estimator]]: estimator_bias ? https://en.wikipedia.org/wiki/Bias_of_an_estimator = 기타 = 단어 estimator 영어사전 뜻: 평가자, 견적인 https://mathworld.wolfram.com/Estimator.html { 'An estimator is a rule that tells how to calculate an [[추정값,estimate]] based on the measurements contained in a [[표본,sample]]. For example, the [[표본평균,sample_mean]] $\bar{x}$ is an '''estimator''' for the [[모평균,population_mean]] $\mu$ .' estimator의 MSE등장 (생략) [[estimator_bias]](not in kms) 도 등장 (생략) - see https://mathworld.wolfram.com/EstimatorBias.html =====,estimator_bias =,estimator_bias . estimator_bias { 이건 [[불편추정량,unbiased_estimator]]에 밀접 [[편향,bias]] of an [[추정량,estimator]]: estimator_bias ? https://en.wikipedia.org/wiki/Bias_of_an_estimator / ko interwiki: https://ko.wikipedia.org/wiki/편의_추정량 } } // from wpko 추정량 { 확률변수 $X:P\to\mathcal{X},$ 모수공간 $\Theta,$ 모수 $\theta\in\Theta,$ 표본공간 $\mathcal{X},$ 표본 $x\in\mathcal{X}$ // [[모수공간,parameter_space]] [[모수,parameter]] [[표본공간,sample_space]] [[표본,sample]] [[확률변수,random_variable]] $X$ 가 모수 $\theta$ 를 가지는 [[확률분포,probability_distribution|분포]]를 따른다고 하자. 그렇다면 모수 $\theta$ 의 [[추정량,estimator]] $\hat{\theta}:\mathcal{X}\to\Theta$ 는 임의의 [[가측함수,measurable_function]] 표본 $x$ 에 대한 모수 $\theta$ 의 [[추정량,estimator]] $\hat{\theta}$ 의 [[오차,error]]는 $\hat{\theta}(x)-\theta$ 모수 $\theta$ 의 추정량 $\hat{\theta}$ 의 [[편향,bias]]은 그 오차의 [[기대값,expected_value]] $B(\hat{\theta})=\text{E}(\hat{\theta}(X)-\theta)$ 모수 $\theta$ 의 [[불편추정량,unbiased_estimator]] $\hat{\theta}$ 는 [[편향,bias]]이 0인 [[추정량,estimator]]. 즉 다음 성질을 만족시키는 추정량. $\text{E}(\hat{\theta}(X))=\theta$ 추정량 $\hat{\theta}$ 의 누적평균제곱오차(? see [[평균제곱오차,mean_squared_error,MSE]])는 오차의 [[제곱,square]]들의 기대값. $\text{MSE}(\hat{\theta})=\text{E}[(\hat{\theta}(X)-\theta)^2]$ 표본 $x$ 에 대한 모수 $\theta$ 의 추정량 $\hat{\theta}$ 의 [[표본편차,sampling_deviation]]는 $d(x)=\hat{\theta}(x)-\text{E}(\hat{\theta}(X))=\hat{\theta}(x)-\text{E}(\hat{\theta})$ 모수 $\theta$ 의 추정량 $\hat{\theta}$ 의 [[분산,variance]]은 표본편차의 제곱의 기대값. $\text{V}(\hat{\theta})=\text{E}(\hat{\theta}(X)^2)-E(\hat{\theta}(X))^2$ } ---- //from wpen Estimator { (첫문단) estimate을 계산하는 rule. ... thus the rule (the estimator), ####추정량 the quantity of interest (the [[estimand]]) ####이건 번역어가 없음???? and its result (the estimate) are distinguished. ####추정값 예를 들어 [[표본평균,sample_mean]]은 [[모평균,population_mean]]을 추정하기 위해 자주 쓰이는 estimator이다. (For example, the sample mean is a commonly used estimator of the population mean.) [[estimand]]의 뜻은? [[WpEn:Estimand]] = https://en.wikipedia.org/wiki/Estimand 에 의하면, 첫문장: (An estimand is a quantity that is to be estimated in a statistical analysis.) -------- 추정대상량??? 추정목표량? (두번째문단) point_estimator (yield single-valued results) interval_estimator (the result would be a range of plausible values) 가 있다. } ---- [[WpKo:추정량]] = https://ko.wikipedia.org/wiki/추정량 "추정량(推定量 estimator)은 표집값들로부터 [[모수,parameter]]의 값을 추정하는 방법이다." https://simple.wikipedia.org/wiki/Estimator [[WpEn:Estimator]] = https://en.wikipedia.org/wiki/Estimator and [[WpEn:Estimation_theory#Estimators]] = https://en.wikipedia.org/wiki/Estimation_theory#Estimators (del later) (지우지말까?) https://encyclopediaofmath.org/wiki/Statistical_estimator [Namu:추정량]] = https://namu.wiki/w/추정량 Up: [[통계,statistics]] [[추정,estimation]] =추정,estimation =,estimation . 추정 estimation { KmsE:estimation => 추정. KmsK:추정 - subtopics들 참조. estimation_theory =,estimation_theory . estimation_theory 추정론 추정이론 ...? https://ko.wikipedia.org/wiki/추정_이론 https://en.wikipedia.org/wiki/Estimation_theory Up: [[추정,estimation]] [[이론,theory]] REL [[정보,information]] 추정은 미지의(unknown보다는 undetermined) 정보에 대한 것이고 정보의 정의 자체가 이미 알려져있는가와 밀접한데... 둘의 관계를 어떻게 서술하면 가장 좋을지.. } 추정량+estimator