这几天偶然看到了概率论的知识,对于几个定理,发现了一些更好的解释,能够帮助大家理解应用。详细请参考张敏老师的<PyTorch深度学习实战>。
1.大数定理
在实验条件不变的情况下,重复实验多次,那么随机事件出现的频率近似等于它的概率。例如,扔硬币实验中,扔1万次硬币,正面朝上的概率近似等于5000
2.中心极限定理
样本的均值约等于总体的均值,任意一个总体的样本的均值都会围绕在总体的均值周围,并且呈现正态分布。例如,全国人口普查,抽取100万人进行统计,统计出来的身高、体重等指标的平均值就是点估计,近似等于全国人口的平均身高、体重;那么全国总体的身高体重,肯定是一个范围,这个范围可以用置信区间来求。置信区间比点估计更可靠。例如,全国平均身高170.13公分,和置信度99%的区间[169,171],后者更可信。
3.马尔可夫不等式
P(X>a)<E(X)/a,百度百科上的解释能帮助理解,例如,一个人的收入( X )高于平均收入5倍的概率( P(X)>5b) )不会大于5分之1( E(X)/5b) ,其中E(X)=b, b代表平均收入。
4.切比雪夫不等式
可以参考百度百科的解释,任意一个数据集中,位于其平均数m个标准差范围内的比例(或部分)总是至少为1-1/m2。
如果觉得《概率论 马尔可夫 切比雪夫等定理的解释》对你有帮助,请点赞、收藏,并留下你的观点哦!