三门问题的三种解法

这篇具有很好参考价值的文章主要介绍了三门问题的三种解法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今天来讲一个经典的概率论问题:

介绍

什么是三门问题

三门问题(Monty Hall problem)亦称为蒙提霍尔问题、蒙特霍问题或蒙提霍尔悖论,大致出自美国的电视游戏节目Let’s Make a Deal。 问题名字来自该节目的主持人蒙提·霍尔(Monty Hall)。 参赛者会看见三扇关闭了的门,其中一扇的后面有一辆汽车,选中后面有车的那扇门可赢得该汽车,另外两扇门后面则各藏有一只山羊。

(来源于知乎)

故事情节

参赛者选中了一个门。这时,主持人Monty Hall打开了另一扇门,让参赛者看。只见里面有一只山羊在安静的吃艹。然后,主持人Monty Hall问参赛者:“你也看到了,这扇门里是山羊,那么我给你一次机会,你可以换成另一扇门,你换不换?”

换还是不换

按这样来看,剩下两扇门,应该有一只羊一辆车,这样来看,两扇门有车的概率应该是一样的,都是 50 % 50\% 50%,也就是说,换或者不换的概率也都是 50 % 50\% 50%

然而。。。

令人疑惑不解的答案

当时大数学家给出的答案是:换的概率是 2 3 \huge \color{red}\frac{2}{3} 32,不换的概率是 1 3 \huge \color{red}\frac{1}{3} 31

很神奇,对吧。

那么,我们来验证一下这个答案对不对。

数学方法:概率论

思路很简单,假设一开始选的时候把另外两扇门绑一起,称为2号门,而一开始选的是1号门。

而在主持人告诉你那扇门是羊的时候,我们就知道,2号门可能是一车一羊,也有可能是俩羊。

  1. 一车一羊
    1. 左边(绑一起之前)的门是车(1/3)
    2. 右边的门是车(1/3)
  2. 二羊(全是羊)(1/3)

所以肯定是换更好

编程:生成数据

我们可以随机生成很多组数据,然后统计概率。

c++代码:

#include <iostream>
#include <time.h>
#include <stdlib.h>
using namespace std;
bool door[5];//下标1~3表示门,true是车,false是羊
int huan,buhuan;//记录成功次数
int main()
{
	srand(time(NULL));//有一些编译器是srand(time(0));
	for(int i = 1; i <= 10000; i++){//测试一万次
		int p=rand()%3+1;//生成一辆车
		door[p]=true;
		int choose=rand()%3+1;//随机选择一扇门
		int GB=rand()%3+1;//公布的那扇门
		while(GB==p||GB==choose)//不能是有车的或选过的
		{
			GB=rand()%3+1;//重新生成
		}
		if(door[choose]==true)huan++;//记录次数
		else buhuan++;
	}
	cout << huan << " " << buhuan << " " << 1.0*huan/(huan+buhuan)*100 << "%";//输出次数以及概率
}

编程:枚举法

直接枚举出所有情况,再按次数求出概率。


#include <iostream>
#include <time.h>
#include <stdlib.h>
using namespace std;
bool door[5];//下标1~3表示门,true是车,false是羊
int huan,buhuan;//记录成功次数
int main()
{
	for(int i = 1; i <= 3; i++){//车在哪个门
		for(int j = 1; j <= 3; j++){//选哪个门
			for(int k = 1; k <= 3; k++){//公布哪个门
				if(k==i||k==j)continue;//不能选有车的和参赛者选的
				if(i==j)huan++;//记录次数
				else buhuan++;
			}
		}
	}
	cout << huan << " " << buhuan << " " << 1.0*huan/(huan+buhuan)*100 << "%";//输出次数以及概率
}

好的那么本期就结束了,我们下期再见!文章来源地址https://www.toymoban.com/news/detail-580726.html

到了这里,关于三门问题的三种解法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【考研数学】概率论与数理统计 | 第一章——随机事件与概率(1)

    若一个试验满足如下条件: 在相同的条件下该试验可重复进行; 试验的结果是多样的且所有可能的结果在试验前都是确定的; 某次试验之前不确定具体发生的结果, 这样的试验称为随机试验,简称试验,一般用字母 E E E 表示。 设 E E E 为随机试验,随机试验 E E E 的 所有

    2024年02月12日
    浏览(41)
  • 【考研数学】概率论与数理统计 | 第一章——随机事件与概率(2,概率基本公式与事件独立)

    承接上文,继续介绍概率论与数理统计第一章的内容。 P ( A − B ) = P ( A B ‾ ) = P ( A ) − P ( A B ) . P(A-B)=P(A overline{B} )=P(A)-P(AB). P ( A − B ) = P ( A B ) = P ( A ) − P ( A B ) . 证明: A = ( A − B ) + A B A=(A-B)+AB A = ( A − B ) + A B ,且 A − B A-B A − B 与 A B AB A B 互斥,根据概率的有限可加

    2024年02月12日
    浏览(36)
  • 深度学习-必备的数学知识-概率论3

    概率论 我们将接着上一篇文章继续讲解。 条件概率 大家还记得上一篇文章的提到的联合概率分布吗?定义在一组变量的联合概率分布的子集上的概率分布被称为边缘概率分布(marginal probability distribution)。 对于离散型随机变量x和y,如果我们有 P ( x , y ) P(x,y) P ( x , y ) ,则可

    2024年02月03日
    浏览(38)
  • 深度学习-必备的数学知识-概率论2

    概率论 在上一篇文章中,我带大家初略的了解了概率论是什么。这篇文章中我将为大家讲解概率论中的随机变量和概率分布。 随机变量 在概率论中,随机变量(random variable)是一个可以随机地取不同值的变量。一个随机变量是对可能的状态的描述,它的取值范围是事件的所

    2024年02月03日
    浏览(32)
  • 均值与概率论:数学关系与实际应用

    均值与概率论是数学和统计学中的基本概念,它们在各个领域的应用非常广泛。均值是用来描述一个数据集的中心趋势的一个量度,常用于对数据进行整理和分析。概率论则是一门数学学科,研究事件发生的可能性和相关概率。这两个概念在实际应用中是密切相关的,因为在

    2024年04月16日
    浏览(28)
  • 深度学习-必备的数学知识-概率论4

    概率论 我们将接着上一篇文章继续讲解。 在接下来的文章中,将会把随机变量本身写作大写字母,随机变量的值写作小写字母。 期望、方差和协方差 期望(expectation)是指随机变量X所有可能取值的平均或期望值。期望可以看作随机变量的中心或平均位置。换句话说期望是随

    2024年02月04日
    浏览(35)
  • 概率论--数学期望与方差--协方差(详解)

    目录 数学期望与方差 离散型随机变量的数学期望 注意 连续型随机变量的数学期望          方差 常用随机变量服从的分布  二项分布 正态分布 随机向量与随机变量的独立性 随机向量 随机变量的独立性 协方差 协方差的定义 协方差的意义 协方差矩阵 离散型随机变量的

    2024年02月11日
    浏览(25)
  • 【深度学习】S2 数学基础 P6 概率论

    机器学习本质上,就是做出预测。而概率论提供了一种量化和表达不确定性水平的方法,可以帮助我们量化对某个结果的确定性程度。 在一个简单的图像分类任务中; 如果我们非常确定图像中的对象是一只猫,那么我们可以说标签为 “猫” 的概率是 1,即 P ( y = “猫” )

    2024年02月20日
    浏览(32)
  • 【概率论】连续型随机变量的分布函数及数学期望(二)

    如果X的密度函数为 p ( x ) = { x , 0 ≤

    2024年01月18日
    浏览(41)
  • 自动编码器的数学基础:概率论与线性代数

    自动编码器(Autoencoders)是一种深度学习模型,它通过学习压缩输入数据的低维表示,然后再将其重新解码为原始数据形式。自动编码器的主要目的是学习数据的特征表示,从而可以用于降维、生成新数据、数据压缩等应用。在这篇文章中,我们将讨论自动编码器的数学基础,

    2024年02月20日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包