• 回答数

    5

  • 浏览数

    339

美食大卡
首页 > 期刊论文 > 贝叶斯公式论文开题报告

5个回答 默认排序
  • 默认排序
  • 按时间排序

下雨天2017

已采纳

状态估计根据可获取的 量测 数据 估算 动态系统内部状态的方法。 贝叶斯滤波也就是在已知 观测 和可选的 控制输入 的概率分布下,估计出的 状态 概率分布。 状态随着时间变化,我们将时间设定为离散的,即 , 相对应的,我们的观测为 ,控制输入为 ,状态 ( 为初始状态)隐马尔可夫模型 (Hidden Markov Model; 缩写: HMM )的两个基本假设: 简单来说,就是当前状态仅取决于先前的状态和当前输入。 比如某个人在骑自行车,那么他 下一刻的速度 , 仅仅 取决于当前的速度和下一刻他蹬了多大力气,与他昨天骑自行车到哪条道路把车停在哪里都无关。或者说他当前的速度仅仅取决于上一刻的速度和当前他蹬了多大力气。 我们把时间分为3个点:上一刻(t-1)、现在(t)、下一刻(t+1), 那么根据马尔可夫假设,现在的状态 仅仅取决于上一刻的状态 和当前的控制输入 ,下一刻的状态 仅仅取决于现在的状态 和下一刻的控制输入 。            这里的 其实说的是条件概率,意思是 在 这一堆条件下发生的概率, 等价 于 在 条件下发生的概率。是指任一时刻的观测只依赖于该时刻的马尔科夫链的状态,与其他观测及状态无关。            同样地,这里的 指的也是条件概率,意思是 在 这一堆条件下发生的概率, 等价 于 在 条件下发生的概率。 这两个假设非常重要,其实我们可以简单 理解其为化简 ,把繁杂的公式进行了极大的简化。根据马尔科夫假设,我们才能推导出递归贝叶斯的更新公式。         顺便推导一下多条件下的贝叶斯公式,后面的推导需要使用到这一个结论,                                                                                                                                                                                                       令 为 条件下 的概率密度函数,即:          把 看成一个整体,那么 ,根据我们上面的多条件下的贝叶斯公式进行展开可得:          根据观测独立假设, , 只依赖于t时刻的马尔科夫链的状态 ,可得                                                                     根据全概率公式,或者说是 边缘概率密度函数 ,此处我们把 看成是两个二维随机变量,求 也就是求边缘概率密度函数了,可得:                                                                     根据齐次马尔可夫假设, , 仅仅取决于t-1时刻的状态 和当前t时刻控制输入 ,可得:                                                                     根据齐次马尔可夫假设,我们观察一下 中, 仅仅取决于t-2时刻的状态 和当前t-1时刻控制输入 ,与 无关,可得:                                                                     仔细观察 ,会发现这个式子就等于 ,所以原式等于:                                                                     至此,贝叶斯滤波推导完毕:          式中 为后面所有项的广义积分的倒数,即                   书本上将 定义为 后验概率(posterior) :指某件事已经发生,想要计算这件事发生的原因是由某个因素引起的概率,是 根据结果推测原因 。 定义为 先验概率(prior) :指根据以往经验和分析。在实验或采样前就可以得到的概率。 定义为 似然概率(likelihood) :是 根据原因推测该原因导致结果发生的概率 。 (evidence) :指某件事发生的概率,概率上讲就是求边缘密度。现在我们生活的地方偶尔可见一些流浪汪,它们短暂的一生中,可能会遇到好人给它们食物吃,也可能遇到普通路人,不理它没给它吃的。 假设在它们的世界中这几类人占比: 好人 ,喂吃的(占总数 20% ); 路人 ,无视(占总数 80% )。 流浪汪小白总结了一个规律,那就是: 好人里面 ,大部分会对它 微笑地招手,占90% ,只有 10%是面无表情 的。 路人里面 ,大部分都是 面无表情的,占85% ,只有 15%会对它微笑地招手 。 这一天,刚满三周岁的小白想着今天要能遇到好人的话,生日鸡腿说不定就有着落了。这时候它看到一个微笑地招手的人走过来,小白开启了超算模式进行计算这个是好人的概率:    p(好人 | 微笑地招手) = p(微笑地招手 | 好人)*p(好人) / p(微笑地招手) = p(微笑地招手 | 好人)*p(好人) / (p(微笑地招手 | 好人)*p(好人) + p(微笑地招手 | 路人)*p(路人)) = 90%*20% / (90%*20% + 15%*80%) = 60% 小白很开心,摇着尾巴屁颠屁颠地走了过去,毕竟它有六成把握对面这个人会给他鸡腿,可没想到那人竟然走开了没给他鸡腿!小白感到很失落,转身走向下一个街道,眼角余光瞄向旁边一个面无表情的人,又开启了超算模式:    p(好人 | 面无表情) = p(面无表情 | 好人)*p(好人) / p(面无表情) = p(面无表情 | 好人)*p(好人) / (p(面无表情 | 好人)*p(好人) + p(面无表情 | 路人)*p(路人)) = 10%*20% / (10%*20%+85%*80%) = 小白耸拉着耳朵,它知道这个面无表情的人是好人的概率只有,基本没什么希望了。突然间小白被一个东西砸了一下,定睛一看竟然是鸡腿,原来这个鸡腿是那个面无表情的人扔过来的,小白很开心,毕竟的概率都被它遇到了,简直是踩了自己shit运,运气真是太好了! 表达有限,希望通过简单例子解释先验、后验,说不清的地方还请见谅。

245 评论

吃出新味来

1. 收集大量的垃圾邮件和非垃圾邮件,建立垃圾邮件集和非垃圾邮件集。 2. 提取邮件主题和邮件体中的独立字符串,例如 ABC32,¥234等作为TOKEN串并统计提取出的TOKEN串出现的次数即字频。按照上述的方法分别处理垃圾邮件集和非垃圾邮件集中的所有邮件。 3. 每一个邮件集对应一个哈希表,hashtable_good对应非垃圾邮件集而hashtable_bad对应垃圾邮件集。表中存储TOKEN串到字频的映射关系。 4. 计算每个哈希表中TOKEN串出现的概率P=(某TOKEN串的字频)/(对应哈希表的长度)。 5. 综合考虑hashtable_good和hashtable_bad,推断出当新来的邮件中出现某个TOKEN串时,该新邮件为垃圾邮件的概率。数学表达式为: A 事件 ---- 邮件为垃圾邮件; t1,t2 …….tn 代表 TOKEN 串 则 P ( A|ti )表示在邮件中出现 TOKEN 串 ti 时,该邮件为垃圾邮件的概率。 设 P1 ( ti ) = ( ti 在 hashtable_good 中的值) P2 ( ti ) = ( ti 在 hashtable_ bad 中的值) 则 P ( A|ti ) =P2 ( ti ) /[ ( P1 ( ti ) +P2 ( ti ) ] ; 6. 建立新的哈希表hashtable_probability存储TOKEN串ti到P(A|ti)的映射 7. 至此,垃圾邮件集和非垃圾邮件集的学习过程结束。根据建立的哈希表 hashtable_probability可以估计一封新到的邮件为垃圾邮件的可能性。 当新到一封邮件时,按照步骤2,生成TOKEN串。查询hashtable_probability得到该TOKEN 串的键值。 假设由该邮件共得到N个TOKEN 串,t1,t2…….tn,hashtable_probability中对应的值为 P1 , P2 , ……PN , P(A|t1 ,t2, t3……tn) 表示在邮件中同时出现多个TOKEN串t1,t2……tn时,该邮件为垃圾邮件的概率。 由复合概率公式可得 P(A|t1 ,t2, t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)] 当 P(A|t1 ,t2, t3……tn) 超过预定阈值时,就可以判断邮件为垃圾邮件。

266 评论

不懂爱为何物

贝叶斯公式直接的应用就是学习,啥意思,就是根据经验对新发生的事物进行判断。抽象地说就是这样。应用的原因就是为了预测未来,规避风险。就和你知道很多鸟都是黑色的,但是其中乌鸦是黑色的可能性最大,于是当你再看到一只黑色的鸟的时候,你就会想着这只鸟是不是乌鸦。包括你学习贝叶斯也是这样的,别人都说贝叶斯很厉害[先验],然后你找了很多案例,最后想看看贝叶斯成功的概率是多少[后验],其本质就是这个

309 评论

jiajia1994

(以下文章部分内容来自于孤独大脑公众号的阅读体会)

贝叶斯公式想要阐述的意义是:新信息出现后, A事件的概率=A事件本身的概率 x 新信息带来的调整。简而言之, 就是 看到新的证据后, 更新想法。

"新信息"在贝叶斯公式中, 代表著"已知条件"。见下图:

公式看起来稍微有点复杂, 不过不要害怕, 以下我们将一一来做拆解:

可以再拓展一下:

以一个比较经典的例子来展示计算过程:

现在, 从人群中随机抽一个人去检测,医院给出的检测结果为阳性,那么这个人实际得病的概率是多少?

我们要算的是P(a|b)= ( *)=9%

用可视化的面积展示看起来会更直观一些:

从上图可知, 蓝色的面积/(蓝色+黄色+绿色中属于阳性)的面积, 就是我们要的答案。

贝叶斯定理本质上是一个很简单的规则:

当你收到新的论据(B)时, 它会用来改变你对某个假设的信任度。

你首先赋予某个事件一个"先验概率", 然后通过新证据来修正, 得到一个"后验概率", 然后把这个"后验概率"变成新的"先验概率", 再做一次修正, 如此循环往复......

这也就是机器学习训练模型的最朴实的基础算法。神经网络最重要的用途是分类; 分类器的输入是一个数值向量,作为类的特征。

我们把搜集到的数值向量做分区, 并且画出一条分界线, 以后新的向量进来, 可以直接区分到底是A还是A' 。而所谓的神经元, 就是一个分类器: 一个n-1维超平面把n维空间一分为二,两边分属不同的两类。

一份数据经过神经元大刀一挥, 就可把类型一分为二。即使是一个多维空间, 只要砍足够多刀, 也能够对一些复杂的函数和空间分布做出解释。

我们先选择一个判断条件, 可以是一条线/平面/超平面, 然后把样本一个个拿过来, 如果这条直线分错了, 说明这个点分错边了, 这时候我们可以动态挪一下判断的线, 让样本跑到直线正确的一侧。因此训练神经元的过程就是这条直线不断在跳舞,最终跳到两个类之间的竖直线位置。

288 评论

武装的蔷薇1

贝叶斯定理太有用了,不管是在投资领域,还是机器学习,或是日常生活中高手几乎都在用到它。 生命科学家用贝叶斯定理研究基因是如何被控制的;教育学家突然意识到,学生的学习过程其实就是贝叶斯法则的运用;基金经理用贝叶斯法则找到投资策 略;Google用贝叶斯定理改进搜索功能,帮助用户过滤垃圾邮件;无人驾驶汽车接收车顶传感器收集到的路况和交通数据,运用贝叶斯定理更新从地图上获得 的信息;人工智能、机器翻译中大量用到贝叶斯定理。 我将从以下4个角度来科普贝叶斯定理及其背后的思维: 1.贝叶斯定理有什么用? 2.什么是贝叶斯定理? 3.贝叶斯定理的应用案例 4.生活中的贝叶斯思维 1.贝叶斯定理有什么用? 英国数学家托马斯·贝叶斯(Thomas Bayes)在1763年发表的一篇论文中,首先提出了这个定理。而这篇论文是在他死后才由他的一位朋友发表出来的。 (ps:贝叶斯定理其实就是下面图片中的概率公式,这里先不讲这个公式,而是重点关注它的使用价值,因为只有理解了它的使用意义,你才会更有兴趣去学习它。) 在这篇论文中,他为了解决一个“逆概率”问题,而提出了贝叶斯定理。 在贝叶斯写这篇文章之前,人们已经能够计算“正向概率”,比如杜蕾斯举办了一个抽奖,抽奖桶里有10个球,其中2个白球,8个黑球,抽到白球就算你中奖。你伸手进去随便摸出1颗球,摸出中奖球的概率是多大。 根据频率概率的计算公式,你可以轻松的知道中奖的概率是2/10 如果还不懂怎么算出来的,可以看我之前写的科普概率的回答: 猴子:如何理解条件概率? 而贝叶斯在他的文章中是为了解决一个“逆概率”的问题。比如上面的例子我们并不知道抽奖桶里有什么,而是摸出一个球,通过观察这个球的颜色,来预测这个桶里里白色球和黑色球的比例。 这个预测其实就可以用贝叶斯定理来做。贝叶斯当时的论文只是对“逆概率”这个问题的一个直接的求解尝试,这哥们当时并不清楚这里面这里面包含着的深刻思想。 然而后来,贝叶斯定理席卷了概率论,并将应用延伸到各个问题领域。可以说,所有需要作出概率预测的地方都可以见到贝叶斯定理的影子,特别地,贝叶斯是机器学习的核心方法之一。 为什么贝叶斯定理在现实生活中这么有用呢? 这是因为现实生活中的问题,大部分都是像上面的“逆概率”问题。生活中绝大多数决策面临的信息都是不全的,我们手中只有有限的信息。既然无法得到全面的信息,我们就在信息有限的情况下,尽可能做出一个好的预测。 比如天气预报说,明天降雨的概率是30%,这是什么意思呢? 我们无法像计算频率概率那样,重复地把明天过上100次,然后计算出大约有30次会下雨。 而是只能利用有限的信息(过去天气的测量数据),用贝叶斯定理来预测出明天下雨的概率是多少。 同样的,在现实世界中,我们每个人都需要预测。想要深入分析未来、思考是否买股票、政策给自己带来哪些机遇、提出新产品构想,或者只是计划一周的饭菜。 贝叶斯定理就是为了解决这些问题而诞生的,它可以根据过去的数据来预测出概率。 贝叶斯定理的思考方式为我们提供了明显有效的方法来帮助我们提供能力,以便更好地预测未来的商业、金融、以及日常生活。 总结下第1部分:贝叶斯定理有什么用? 在有限的信息下,能够帮助我们预测出概率。 所有需要作出概率预测的地方都可以见到贝叶斯定理的影子,特别地,贝叶斯是机器学习的核心方法之一。例如垃圾邮件过滤,中文分词,艾滋病检查,肝癌检查等。 2.什么是贝叶斯定理? 贝叶斯定理长这样: 到这来,你可能会说:猴子,说人话,我一看到公式就头大啊。 其实,我和你一样,不喜欢公式。我们还是从一个例子开始聊起。 我的朋友小鹿说,他的女神每次看到他的时候都冲他笑,他想知道女神是不是喜欢他呢? 谁让我学过统计概率知识呢,下面我们一起用贝叶斯帮小鹿预测下女神喜欢他的概率有多大,这样小鹿就可以根据概率的大小来决定是否要表白女神。 首先,我分析了给定的已知信息和未知信息: 1)要求解的问题:女神喜欢你,记为A事件 2)已知条件:女神经常冲你笑,记为B事件 所以说,P(A|B)是女神经常冲你笑这个事件(B)发生后,女神喜欢你(A)的概率。 从公式来看,我们需要知道这么3个事情: 1)先验概率 我 们把P(A)称为'先验概率'(Prior probability),即在不知道B事件的前提下,我们对A事件概率的一个主观判断。这个例子里就是在不知道女神经常对你笑的前提下,来主观判断出女 神喜欢一个人的概率,这里我们假设是50%,也就是不能喜欢你,可能不喜欢还你的概率都是一半。 2)可能性函数 P(B|A)/P(B)称为'可能性函数'(Likelyhood),这是一个调整因子,即新信息B带来的调整,作用是使得先验概率更接近真实概率。 可 能性函数你可以理解为新信息过来后,对先验概率的一个调整。比如我们刚开始看到“人工智能”这个信息,你有自己的理解(先验概率/主观判断),但是当你学 习了一些数据分析,或者看了些这方面的书后(新的信息),然后你根据掌握的最新信息优化了自己之前的理解(可能性函数/调整因子),最后重新理解了“人工 智能”这个信息(后验概率) 如果'可能性函数'P(B|A)/P(B)>1,意味着'先验概率'被增强,事件A的发生的可能性变大; 如果'可能性函数'=1,意味着B事件无助于判断事件A的可能性; 如果"可能性函数"<1,意味着"先验概率"被削弱,事件A的可能性变小 还是刚才的例子,根据女神经常冲你笑这个新的信息,我调查走访了女神的闺蜜,最后发现女神平日比较高冷,很少对人笑。所以我估计出'可能性函数'P(B|A)/P(B)=(具体如何估计,省去1万字,后面会有更详细科学的例子) 3)后验概率 P(A|B)称为'后验概率'(Posterior probability),即在B事件发生之后,我们对A事件概率的重新评估。这个例子里就是在女神冲你笑后,对女神喜欢你的概率重新预测。 带入贝叶斯公式计算出P(A|B)=P(A)* P(B|A)/P(B)=50% * 因此,女神经常冲你笑,喜欢上你的概率是75%。这说明,女神经常冲你笑这个新信息的推断能力很强,将50%的'先验概率'一下子提高到了75%的'后验概率'。 在得到预测概率后,小鹿自信满满的发了下面的表白微博:无图 稍后,果然收到了女神的回复。预测成功。无图 现在我们再看一遍贝叶斯公式,你现在就能明白这个公式背后的最关键思想了: 我们先根据以往的经验预估一个'先验概率'P(A),然后加入新的信息(实验结果B),这样有了新的信息后,我们对事件A的预测就更加准确。 因此,贝叶斯定理可以理解成下面的式子: 后验概率(新信息出现后的A概率)=先验概率(A概率) x 可能性函数(新信息带来的调整) 贝叶斯的底层思想就是: 如果我能掌握一个事情的全部信息,我当然能计算出一个客观概率(古典概率)。 可是生活中绝大多数决策面临的信息都是不全的,我们手中只有有限的信息。既然无法得到全面的信息,我们就在信息有限的情况下,尽可能做出一个好的预测。也就是,在主观判断的基础上,你可以先估计一个值(先验概率),然后根据观察的新信息不断修正(可能性函数)。 如果用图形表示就是这样的: 其实阿尔法狗也是这么战胜人类的,简单来说,阿尔法狗会在下每一步棋的时候,都可以计算自己赢棋的最大概率,就是说在每走一步之后,他都可以完全客观冷静的更新自己的信念值,完全不受其他环境影响。 3.贝叶斯定理的应用案例 前面我们介绍了贝叶斯定理公式,及其背后的思想。现在我们来举个应用案例,你会更加熟悉这个牛瓣的工具。 为了后面的案例计算,我们需要先补充下面这个知识。 1.全概率公式 这个公式的作用是计算贝叶斯定理中的P(B)。 假定样本空间S,由两个事件A与A'组成的和。例如下图中,红色部分是事件A,绿色部分是事件A',它们共同构成了样本空间S。 这时候来了个事件B,如下图: 全概率公式: 它的含义是,如果A和A'构成一个问题的全部(全部的样本空间),那么事件B的概率,就等于A和A'的概率分别乘以B对这两个事件的条件概率之和。 看到这么复杂的公式,记不住没关系,因为我也记不住,下面用的时候翻到这里来看下就可以了。 案例1:贝叶斯定理在做判断上的应用 有两个一模一样的碗,1号碗里有30个巧克力和10个水果糖,2号碗里有20个巧克力和20个水果糖。 然后把碗盖住。随机选择一个碗,从里面摸出一个巧克力。 问题:这颗巧克力来自1号碗的概率是多少? 好了,下面我就用套路来解决这个问题,到最后我会给出这个套路。 第1步,分解问题 1)要求解的问题:取出的巧克力,来自1号碗的概率是多少? 来自1号碗记为事件A1,来自2号碗记为事件A2 取出的是巧克力,记为事件B, 那么要求的问题就是P(A1|B),即取出的是巧克力,来自1号碗的概率 2)已知信息: 1号碗里有30个巧克力和10个水果糖 2号碗里有20个巧克力和20个水果糖 取出的是巧克力 第2步,应用贝叶斯定理 1)求先验概率 由于两个碗是一样的,所以在得到新信息(取出是巧克力之前),这两个碗被选中的概率相同,因此P(A1)=P(A2)=,(其中A1表示来自1号碗,A2表示来自2号碗) 这个概率就是'先验概率',即没有做实验之前,来自一号碗、二号碗的概率都是。 2)求可能性函数 P(B|A1)/P(B) 其中,P(B|A1)表示从一号碗中(A1)取出巧克力(B)的概率。 因为1号碗里有30个水果糖和10个巧克力,所以P(B|A1)=30/(30+10)=75% 现在只有求出P(B)就可以得到答案。根据全概率公式,可以求得P(B)如下图: 图中P(B|A1)是1号碗中巧克力的概率,我们根据前面的已知条件,很容易求出。 同样的,P(B|A2)是2号碗中巧克力的概率,也很容易求出(图中已给出)。 而P(A1)=P(A2)= 将这些数值带入公式中就是小学生也可以算出来的事情了。最后P(B)= 所以,可能性函数P(A1|B)/P(B)=75%/ 可能性函数>1.表示新信息B对事情A1的可能性增强了。 3)带入贝叶斯公式求后验概率 将上述计算结果,带入贝叶斯定理,即可算出P(A1|B)=60% 这个例子中我们需要关注的是约束条件:抓出的是巧克力。如果没有这个约束条件在,来自一号碗这件事的概率就是50%了,因为巧克力的分布不均把概率从50%提升到60%。 现在,我总结下刚才的贝叶斯定理应用的套路,你就更清楚了,会发现像小学生做应用题一样简单: 第1步. 分解问题 简单来说就像做应用题的感觉,先列出解决这个问题所需要的一些条件,然后记清楚哪些是已知的,哪些是未知的。 1)要求解的问题是什么? 识别出哪个是贝叶斯中的事件A(一般是想要知道的问题),哪个是事件B(一般是新的信息,或者实验结果) 2)已知条件是什么? 第2步.应用贝叶斯定理 第3步,求贝叶斯公式中的2个指标 1)求先验概率 2)求可能性函数 3)带入贝叶斯公式求后验概率

226 评论

相关问答

  • 茶叶论文的开题报告

    这不是分析领域吧?分析一般指定性或定量。定性分析是确定物质的组成,定量分析是确定物质的含量。而提取应该是从茶叶中提取相关的有效成分,属于提取制取。当然,提取后可

    无锡美艺馨 5人参与回答 2023-12-10
  • 俄罗斯方块论文开题报告

    玩“俄罗斯方块”这样的视频游戏能缓解心理创伤。 俄罗斯方块由几种四格骨牌构成,玩家可以在这些骨牌下落的过程中以90度为单位控制其旋转,以格子为单位左右移动,当下

    edward1015 4人参与回答 2023-12-09
  • 贝叶斯公式论文开题报告

    状态估计根据可获取的 量测 数据 估算 动态系统内部状态的方法。 贝叶斯滤波也就是在已知 观测 和可选的 控制输入 的概率分布下,估计出的 状态

    美食大卡 5人参与回答 2023-12-12
  • 贝叶斯统计毕业论文

    贝叶斯公式直接的应用就是学习,啥意思,就是根据经验对新发生的事物进行判断。抽象地说就是这样。应用的原因就是为了预测未来,规避风险。就和你知道很多鸟都是黑色的,但

    洋洋捌月 3人参与回答 2023-12-07
  • 涡轮叶片论文开题报告

    万泽股份(000534)03月30日在投资者关系平台上答复了投资者关心的问题。 投资者:您好董秘,公司新投产的高温合金材料是用于什么行业? 万泽股份董秘

    茶痴吃茶去 6人参与回答 2023-12-09