AI大模型学习
原创AI博客
大模型技术讨论资讯博客
AI大模型评测和排行榜
业界大模型评测基准
全球大模型最新评测基准结果
大模型综合能力排行榜
大模型编程能力排行榜
LMSys ChatBot Arena排行榜
Berkeley大模型工具使用能力排行榜
OpenLLMLeaderboard中国站
全球大模型最新评测结果
AI大模型大全(新版)
AI大模型大全(新版)
AI大模型大全
AI大模型对比
2023年度AI产品总结
大模型部署教程
AI资源仓库
AI领域与任务
AI研究机构
AI数据集
AI开源工具
数据推荐
AI大模型
国产AI大模型生态全览
AI模型概览图
AI模型月报
AI基础大模型
AI大模型工具导航
AI大模型工具导航网站
在线聊天大模型列表
Unanimity and compromise among probability forecasters
小木
Management science
1990-07
2077
2017/02/06 09:57:33
这篇文章是之前那篇Management science中提到的用贝叶斯方法做观点融合的文章,文章有点老,引用也不高,先将就着看看吧。 作者首先提了一个管理的问题,比如一个决策者收到了两份预测结果,当两份预测结果一致的时候,决策者是否应该把这个预测概率当作他对某件事情判断的后验概率?当两份预测不一致的时候,他又该如何操作?作者认为对于同一个话题,将两个不同的概率联合起来是一个非常值得研究的问题(是啊,等了这么多年终于在最近几年的预测市场和众智的出现下,这个问题火了)。 #### 联合概率模型 在贝叶斯模型中,条件独立假设是非常普遍的假设。但是,使用条件独立的假设也有很多方法。首先,第一种情况是假设在给定事件下,不同个体的预测是相互独立的。第二种是在一个未知参数条件下,预测者的数据集是独立于该参数的一个参数模型。第三种是假设预测者的数据集以及据此的预测结果**不是相互独立**的。作者假设,某个事件A,只有发生1,和不发生0两种情况。有k个预测来源,其中,第i个来源的预测A发生的概率为$p_i$。在某种条件下,第i个预测来源的预测概率可以被当作是随机变量。决策者的先验概率是$p_0$,因此,其后验概率为$p^\*=P(A|p_0,p_1,...,p_k)$。 ##### 给定事件A下的条件独立 贝叶斯理论的对数比形式为: ```math \frac{p^*}{(1-p^*)}=\frac{p_0}{1-p_0}\prod_{i=1}^{k}\frac{P(p_i|A,p_0,p_1,...,p_{i-1})}{P(p_i|\bar{A},p_0,p_1,...,p_{i-1})} ``` 假设预测来源相互独立,那么有 ```math \frac{P(p_i|A,p_0,p_1,...,p_{i-1})}{P(p_i|\bar{A},p_0,p_1,...,p_{i-1})} = \frac{P(p_i|A)}{P(p_i|\bar{A})} ``` 所以第一个公式变成了: ```math \frac{p^*}{(1-p^*)}=\frac{p_0}{1-p_0}\prod_{i=1}^{k}\frac{P(p_i|A)}{P(p_i|\bar{A})} ``` 上式就可以当作是决策者的决策概率。比如说有两个来源,分别预测事件发生的概率为0.55,0.55,决策的事件发生的先验是0.5,那么决策者最后的预测概率就是0.6了。Genest和Schervish两人使用了一个类似的聚合公式来提供决策者的决策概率: ```math p^*=\frac{p_0^{1-k}\prod_{i=1}^{k}\pi_i}{p_0^{1-k}\prod_{i=1}^k\pi_i+(1-p_0)^{(1-k)}\prod_{i=1}^{k}(1-\pi_i)} ``` 在这里,$\pi_i=p_0+\lambda_i(p_i-u_i)$,其中$u_i$是决策者对pi的边际期望。$\lambda_i$是决策者对线性回归系数的主观评价。
赏
支付宝扫码打赏
如果文章对您有帮助,欢迎打赏鼓励作者
Back to Top