数据学习
AI博客
原创AI博客
大模型技术博客
期刊会议
学术世界
期刊出版社
领域期刊
SCI/SCIE/SSCI/EI简介
期刊列表
会议列表
所有期刊分区
学术期刊信息检索
JCR期刊分区查询
CiteScore期刊分区查询
中科院期刊分区查询
管理 - UTD24期刊列表
管理 - AJG(ABS)期刊星级查询
管理 - FMS推荐期刊列表
计算机 - CCF推荐期刊会议列表
南大核心(CSSCI)
合工大小核心
合工大大核心
AI资源仓库
AI领域与任务
AI研究机构
AI学术期刊
AI论文快讯
AI数据集
AI开源工具
数据推荐
AI大模型
国产AI大模型生态全览
AI模型概览图
AI模型月报
AI基础大模型
AI大模型排行榜
大模型综合能力排行榜
大模型编程能力排行榜
OpenLLMLeaderboard中国站
AI大模型大全
大模型部署教程
在线聊天大模型列表
2023年度AI产品总结
Unanimity and compromise among probability forecasters
小木
Management science
1990-07
1676
2017/02/06 09:57:33
这篇文章是之前那篇Management science中提到的用贝叶斯方法做观点融合的文章,文章有点老,引用也不高,先将就着看看吧。 作者首先提了一个管理的问题,比如一个决策者收到了两份预测结果,当两份预测结果一致的时候,决策者是否应该把这个预测概率当作他对某件事情判断的后验概率?当两份预测不一致的时候,他又该如何操作?作者认为对于同一个话题,将两个不同的概率联合起来是一个非常值得研究的问题(是啊,等了这么多年终于在最近几年的预测市场和众智的出现下,这个问题火了)。 #### 联合概率模型 在贝叶斯模型中,条件独立假设是非常普遍的假设。但是,使用条件独立的假设也有很多方法。首先,第一种情况是假设在给定事件下,不同个体的预测是相互独立的。第二种是在一个未知参数条件下,预测者的数据集是独立于该参数的一个参数模型。第三种是假设预测者的数据集以及据此的预测结果**不是相互独立**的。作者假设,某个事件A,只有发生1,和不发生0两种情况。有k个预测来源,其中,第i个来源的预测A发生的概率为$p_i$。在某种条件下,第i个预测来源的预测概率可以被当作是随机变量。决策者的先验概率是$p_0$,因此,其后验概率为$p^\*=P(A|p_0,p_1,...,p_k)$。 ##### 给定事件A下的条件独立 贝叶斯理论的对数比形式为: ```math \frac{p^*}{(1-p^*)}=\frac{p_0}{1-p_0}\prod_{i=1}^{k}\frac{P(p_i|A,p_0,p_1,...,p_{i-1})}{P(p_i|\bar{A},p_0,p_1,...,p_{i-1})} ``` 假设预测来源相互独立,那么有 ```math \frac{P(p_i|A,p_0,p_1,...,p_{i-1})}{P(p_i|\bar{A},p_0,p_1,...,p_{i-1})} = \frac{P(p_i|A)}{P(p_i|\bar{A})} ``` 所以第一个公式变成了: ```math \frac{p^*}{(1-p^*)}=\frac{p_0}{1-p_0}\prod_{i=1}^{k}\frac{P(p_i|A)}{P(p_i|\bar{A})} ``` 上式就可以当作是决策者的决策概率。比如说有两个来源,分别预测事件发生的概率为0.55,0.55,决策的事件发生的先验是0.5,那么决策者最后的预测概率就是0.6了。Genest和Schervish两人使用了一个类似的聚合公式来提供决策者的决策概率: ```math p^*=\frac{p_0^{1-k}\prod_{i=1}^{k}\pi_i}{p_0^{1-k}\prod_{i=1}^k\pi_i+(1-p_0)^{(1-k)}\prod_{i=1}^{k}(1-\pi_i)} ``` 在这里,$\pi_i=p_0+\lambda_i(p_i-u_i)$,其中$u_i$是决策者对pi的边际期望。$\lambda_i$是决策者对线性回归系数的主观评价。
赏
支付宝扫码打赏
如果文章对您有帮助,欢迎打赏鼓励作者
Back to Top