您现在的位置是:首页 >

已知全响应求初始状态 互资讯的求解:已知信源发出x的概率,及接收到y后的x的后验概率,程式设计实现互资讯的求解。

火烧 2022-06-07 08:22:09 1062
互资讯的求解:已知信源发出x的概率,及接收到y后的x的后验概率,程式设计实现互资讯的求解。 互资讯的求解:已知信源发出x的概率,及接收到y后的x的后验概率,程式设计实现互资讯的求解。建议你到百度或GO

互资讯的求解:已知信源发出x的概率,及接收到y后的x的后验概率,程式设计实现互资讯的求解。  

互资讯的求解:已知信源发出x的概率,及接收到y后的x的后验概率,程式设计实现互资讯的求解。

建议你到百度或GOOGLE搜寻一下,看看有没有相关资讯资料可以帮你。

通道给定时,平均互资讯是信源概率分布的什么函式

互资讯(Mutual Information)是度量两个事件集合之间的相关性(mutual dependence)。
平均互资讯量定义:
互资讯量I(xi;yj)在联合概率空间P(XY)中的统计平均值。 平均互资讯I(X;Y)克服了互资讯量I(xi;yj)的随机性,成为一个确定的量。
平均互资讯量的物理含义
1) 观察者站在输出端:
H(X/Y) —通道疑义度/损失熵.。Y关于X的后验不确定度。表示收到变数Y后,对随机变数X仍然存在的不确定度。代表了在通道中损失的资讯。
H(X) —X的先验不确定度/无条件熵。
I(X;Y)—收到Y前后关于X的不确定度减少的量。从Y获得的关于X的平均资讯量。
2)观察者站在输入端:
H(Y/X)—噪声熵。表示发出随机变数X后, 对随机变数Y仍然存在的平均不确定度。如果通道中不存在任何噪声, 传送端和接收端必存在确定的对应关系, 发出X后必能确定对应的Y, 而现在不能完全确定对应的Y, 这显然是由通道噪声所引起的。
I(Y;X) —发出X前后关于Y的先验不确定度减少的量.
3)观察者站在通讯系统总体立场上:
H(XY)—联合熵.表示输入随机变数X, 经通道传输到达信宿, 输出随机变数Y。即收,发双方通讯后,整个系统仍然存在的不确定度.
I(X;Y) —通讯前后整个系统不确定度减少量。在通讯前把X和Y看成两个相互独立的随机变数, 整个系统的先验不确定度为X和Y的联合熵H(X)+H(Y); 通讯后把通道两端出现X和Y看成是由通道的传递统计特性联络起来的, 具有一定统计关联关系的两个随机变数, 这时整个系统的后验不确定度由H(XY)描述。
以上三种不同的角度说明: 从一个事件获得另一个事件的平均互资讯需要消除不确定度,一旦消除了不确定度,就获得了资讯。
平均互资讯量的性质
① 对称性
I(X;Y)= I(Y;X)
由Y提取到的关于X的资讯量与从X中提取到的关于Y的资讯量是一样的。 I(X;Y)和 I(Y;X)只是观察者的立足点不同。
② 非负性
I(X;Y)≥0
平均互资讯量不是从两个具体讯息出发, 而是从随机变数X和Y的整体角度出发, 并在平均意义上观察问题, 所以平均互资讯量不会出现负值。
或者说从一个事件提取关于另一个事件的资讯, 最坏的情况是0, 不会由于知道了一个事件,反而使另一个事件的不确定度增加。
③ 极值性
I(X;Y)≤H(X)
I(Y;X)≤H(Y)
从一个事件提取关于另一个事件的资讯量, 至多是另一个事件的熵那么多, 不会超过另一个事件自身所含的资讯量。
当X和Y是一一对应关系时: I(X;Y)=H(X), 这时H(X/Y)=0。从一个事件可以充分获得关于另一个事件的资讯, 从平均意义上来说, 代表信源的资讯量可全部通过通道。
当X和Y相互独立时: H(X/Y) =H(X), I(Y;X)=0。 从一个事件不能得到另一个事件的任何资讯,这等效于通道中断的情况。
④ 凸函式性
平均互资讯量是p(xi)和p(yj /xi)的函式,即I(X;Y)=f [p(xi), p(yj /xi)];
若固定通道,调整信源, 则平均互资讯量I(X;Y)是p(xi)的函式,即I(X;Y)=f [p(xi)];
若固定信源,调整通道, 则平均互资讯量I(X;Y)是p(yj /xi)的函式,即I(X;Y)=f [p (yj /xi)]。
平均互资讯量I(X;Y)是输入信源概率分布p(xi)的上凸函式(concave function; or convext cap function)。
平均互资讯量I(X;Y)是输入转移概率分布p(yj /xi)的下凸函式(convext function; or convext cup function)。
⑤ 资料处理定理
串联通道
在一些实际通讯系统中, 常常出现串联通道。例如微波中继接力通讯就是一种串联通道.
信宿收到资料后再进行资料处理, 资料处理系统可看成一种通道, 它与前面传输资料的通道构成串联通道。
资料处理定理:当讯息经过多级处理后,随着处理器数目的增多,输入讯息与输出讯息之间的平均互资讯量趋于变小。即
I(X;Z)≤I(X;Y)
I(X;Z)≤I(Y;Z)
其中假设Y条件下X和Z相互独立。
两级串联通道输入与输出讯息之间的平均互资讯量既不会超过第Ⅰ级通道输入与输出讯息之间的平均互资讯量,也不会超过第Ⅱ级通道输入与输出讯息之间的平均互资讯量。
当对讯号/资料/讯息进行多级处理时, 每处理一次, 就有可能损失一部分资讯, 也就是说资料处理会把讯号/资料/讯息变成更有用的形式, 但是绝不会创造出新的资讯。这就是所谓的资讯不增原理。
当已用某种方式取得Y后, 不管怎样对Y进行处理, 所获得的资讯不会超过I(X;Y)。每处理一次, 只会使资讯量减少, 至多不变。也就是说在任何资讯流通系统中, 最后获得的资讯量,至多是信源提供的资讯。一旦在某一过程中丢失了一些资讯, 以后的系统不管怎样处理, 如果不能接触到丢失资讯的输入端, 就不能再恢复已丢失的资讯。

已知全响应求初始状态 互资讯的求解:已知信源发出x的概率,及接收到y后的x的后验概率,程式设计实现互资讯的求解。

求个MATLAB程式设计! 已知信源X与信源Y的联合概率,程式设计求解X与Y的联合熵。

7325169401 五级 1 | 我的知道 | 讯息 | 空间 | 应用 | 退出 我的知道 我的提问

我的回答

为我推荐的提问

知识掌门人
应用 礼物
投票
转贴
HOHO
荣光医院
阳光牧场
狗狗
更多应用 新闻 网页 贴吧 知道 MP3 图片 视讯 百科 文库 帮助 | 设定
百度知道 > 电脑/网路 > 程式设计
求个MATLAB程式设计! 已知信源X与信源Y的联合概率,程式设计求解X与Y的联合熵。
悬赏分:30 | 离问题结束还有 14 天 10 小时 | 提问者:匿名 | 检举

输入内容已经达到长度限制还能输入 9999 字插入图片删除图片插入地图删除地图插入视讯视讯地图回答即可得2分经验值,回答被采纳可同步增加经验值和财富值
参考资料:匿名回答提交回答
回答 共1条
完成任务
回答者: yyszljb | 二级 | 2010-12-15 16:08 | 检举

转发到:
7325169401五级我的提问 我的回答 积分商城
(22)条讯息等待处理
今天你做任务了没?全部任务常来常往 +200修复彩蛋,重铸希望 +30扬帆起航 +660团长招募令进入个人中心
使用百度Hi可以第一时间收到“提问有新回答”“回答被采纳”“网友求助”的通知。检视详情
您想在自己的网站上展示百度“知道”上的问答吗?来获取免费程式码吧!
如要投诉或提出意见建议,
请到百度知道投诉吧反馈。
©2010 Baidu 使用百度前必读 知道协议
任务提醒
x关闭 下载百度Hi,体验更丰富 与好友聊天 好友列表 Hi联络人 建立新会话 系统讯息没有新系统讯息。
设定 收到资讯播放提示音
不接收陌生人讯息
更改线上状态:
线上 隐身 离线 聊天视窗下载百度Hi 聊天软体,体验更丰富
加为Hi联络人 传送 预设分组 Hi气泡熊
请输入对方帐号 开始会话 按Enter传送按Ctrl+Enter传送

我在百度个人中心 我的空间 我的知道 百科 游戏中心

求java编写互资讯计算,并按照互资讯值从大到小排列。急~

您好,提问者:
    请问资料是什么?你要根据什么排序,排序规则说一下。

阵列的话用Arrays.sort(Object[] obj) 比如: String[] arr = {"asddf","df","gffgfg"}; java.util.Arrays.sort(arr); 再输出阵列已经对其进行排序了

求助Matlab基于最大互资讯的影象配准

网站线上客服系统很多,尤其是这几年,很多企业都在跨入智慧客服软体领域,网站线上客服系统可以随时选出好几十家出来,但是哪家最好,我推荐乐盈通客服系统。
因为乐盈通客服系统针对性的开发出各自特点的功能,来更好的为网站提供服务,未来线上客服系统的发展方向应该是更好的结合网站,结合客户管理系统(CRM),结合线上销售系统,为网站开辟一条发展之路,营销之路。

令x为取值-1和+1的二元随机变数,概率分布是都为0.5,令y为连续随机变数,已知条件概率密度,求两者的互资讯

I)设Y的分布函式为FY(y),即:FY(y)=P(Y≤y)=P(X2≤y),则:1)当y<0时,FY(y)=0,2)当0≤y<1时,FY(y)=P(X2<y)=P(?y<X<y)=∫0?y12dx+∫y014dx=34y,3)当1≤y<4时,FY(y)=P(X2<y)=P(?1<X<y)=∫0?112dx+∫y014dx=14y+12,4

怎么计算两个离散值加速度的互资讯的MATLAB程式

我是用采集到的加速度讯号来做两次积分得到位移讯号,由于采集到的加速度讯号有直流偏移量,所以用了detrend命令做去趋势处理。为了检验程式码是否正确,我用了一个标准的正弦函式来验证。程式码如下:
t=(0:1:10240-1)/2000;
a=sin(5*t); %标准的正弦函式,准备对其进行两次积分处理
fs=2000;
N=10240;
za=detrend(a); %对采集到的加速度讯号去趋势处理(因为采集到的加速度讯号有直流偏移量)
v=cumtrapz(t,za); %对加速度讯号积分得速度讯号
zv=detrend(v); %对速度讯号去趋势处理
l=cumtrapz(t,zv); %对速度讯号积分得到位移讯号
zl=detrend(l); %对位移讯号去趋势处理
figure(1)
subplot(3,1,1)
plot(t,za)
title('加速度讯号');
subplot(3,1,2)
plot(t,zv)
title('速度讯号');
subplot(3,1,3)
plot(t,zl)
title('位移讯号');

资讯容量与平均互资讯量的关系

资讯容量 指通道能传输资讯的最大能力,一般以单位时间内最大可传送资讯的BIT数表示。实用中,通道容量应大于传输速率,否则高的传输速率得不到充分发挥利用。 成像系统能够记录(储存)的最大资讯量,通常以单位面积中可区分的基本单元的数量来表示。卤化银胶片的可分辨单元的大小与可区分的密度水平的数量有关。以两个密度水平为准来计算,可分辨基本单元的尺寸相当于散布函式的大小,每个基本单元称为一位资讯,例如某一胶片在lcm2面积内可分辨的基本单元有2×10^8,则称其资讯容量为2×10^8位/c㎡。

平均互资讯量I与信源分布q有何关系, 平均互资讯量I(X;Y)与信源分布q(x)有何关系?与p(y|x)又是什么关系?

I(X; Y) = sigma p(xy) log(p(y|x) / p(y)) = sigma p(xy) log(p(x|y) / q(x))
当,p(y|x)一定时,I(X; Y)是q(x)的上凸函式.
当,q(x)一定时,I(X; Y)是p(y|x)的下凸函式.
其中p(xy)=p(y|x) q(x) = p(x|y) p(y).

  
永远跟党走
  • 如果你觉得本站很棒,可以通过扫码支付打赏哦!

    • 微信收款码
    • 支付宝收款码