Machine Learning & 概率 & 随机变量 & 概

2019-06-04  本文已影响0人  morn___

概率于Machine Learning而言还是比较重要的,但是概率的难点在于,其不够直观,那么换一个视角,我们称之为"上帝视角",将概率转化为面积,这样便会变的直观;

1.概率的定义

概率,顾名思义就是某事件发生可能性的一种量化,这是我们最直观的感受;

下面从一个比较经典的案例来作为引入 --- 蒙提霍尔问题:

有ABC三扇门,其中有一扇是正确的门,打开有一辆豪车,其余两扇,门为错误的门,门内有山羊:
前提:骰子1,2对应门1;骰子3,4对应门2,骰子5,6对应门3

下面来看概率:

所以"第一次选择错误"的概率就是"重选后正确"的概率,其重选的正确率就是 2/3

但是其实也会有另一种误区:

第一选择完毕后,主持人打开一个错误的门,那么此时就剩下一个错误的门和一个正确的门,此时重选的概率就是:
假如主持人打开的错误门是门1;

但是仔细一想,这种概率是建立在,选手没有进行第一次选择的基础上进行的;

2.飞艇角度来看蒙提霍尔问题

正如上面的误区,概率是一个抽象的东西,有时候我们会掉进这个误区中出来

概率是一种抽象的概念,如果我们仅仅凭直觉判断,很难清晰理解它的本质

我们的思路是这样:
1.转换视角来看待这个问题(这里是飞艇视角)
2.尽量把问题转换成一种可以实际衡量的形式

场景是这样的:
挑战者选择门1 挑战者选择门2 挑战者选择门3
主持人 打开门2 打开门3 打开门1 打开门3 打开门1 打开门2
门1是正确答案 20个会场 20个会场 0个会场 40个会场 0个会场 40个会场
门2是正确答案 0个会场 40个会场 20个会场 20个会场 40个会场 0个会场
门3是正确答案 40个会场 0个会场 40个会场 0个会场 20个会场 20个会场

根据上表,我们来复原刚刚的误区:

3.上帝视角来看概率
概率.png

到目前为止,我们便已经将一个抽象的概念:概率,转化为一个可量化的概念(面积量化)

这里我们来用几个数学符号:

\Omega:代表所有平行世界的合集,也就是所有可能场景的集合; \omega是每一个世界的映射.eg: \omega1, \omega2...
P是每一个世界的面积,这里我们需要知道所有的平行世界的面积为1,或者可以这样理解,\Omega是所有平行世界的合集,
当然从数学角度来看他只是一个面,\Omega是点的集合,对于\Omega中人意一点A,其发生的概率,就是其所在区域的面积,用P(A)表示
这样的话就知道三元组的第一个和第三个参数意义,第二个参数这里暂且跳过

这样概率便转化为面积,任何量化的东西,要比抽象的概念理解起来更加舒服,深刻;
这里补充一下,每个世界\omega可以理解为样本,由所有平行世界组成的\Omega就是样本空间,\Omega的子集A就是事件,我们日常的讨论的概率应当是基于事件取量化的

4.随机变量 & 概率分布

4.1 随机变量

注意这里的子集A仅仅是平面上的一个点,我们称为样本点或者基本事件会更加合适一些,打个比方,投掷硬币为正面向上的区域有无数个点,而当前的事件应该是正面朝上的事件,而点A仅仅是构成事件的样本点而已;

所以进一步来看,随机事件是会随机改变的不确定点,他也是由某个世界中的点集表示,所以随机事件应该是关于\omega的函数,即为:

f(\omega)

4.2 概率分布

随机变量是基于具体的平行世界的,相对的概率分布只考虑面积,比如投掷硬币:

5.事件的独立性

其实可以这样表述这个定义:事件A和时间B,如果P(A|B) = P(A|非B),那么我们就认为事件A和事件B相互独立

下面来介绍几个等价表诉:

所以判断事件A B 是否独立可以利用上诉的任意等价表诉来进行判断

上一篇下一篇

猜你喜欢

热点阅读