用数学来算算F-35的EO DAS

来源:百度文库 编辑:超级军网 时间:2024/05/04 22:55:29
试算了一下DAS的作用距离。可能有错的地方,欢迎指教。

EOS的每个红外摄像头是90度的锥体覆盖。这样也使得计算起来容易一些。

假设感光元器件是5000x5000。那么覆盖45度用2500像素。至少一个像素需要感应到目标。因为正好是45度,那么目标大小/距离等于1/2500。

飞机的主要红外源是发动机。以发动机尾焰来说,加力时这个红外源有可能是十几米长。但是如果没有加力,可能只有几米。

当然了,以上的1/2500实际上过于简化了。DAS用的红外,那么如果目标距离远一倍,并不等于那么像素就不能捕捉到信息,只是强度小。距离增加一倍,强度减弱到1/8。这个和红外感光元件的敏感度有关了。我不懂硬件,不过估计作用距离可以翻番或者四番。就是说,如果发动机不加力,5米长的尾焰,捕捉距离是5米x2500x4=50公里。如果目标机开了加力,那么作用距离可能到150公里。

阵风的类似系统曾经在120公里的距离上捕捉到目标。有传说F-35的DAS对战斗机的作用距离是60海里(100公里)。这都和以上计算符合。

那么这个DAS系统需要处理6个2500万像素的镜头所捕取的信息。这里不是说照相,而是接近实时的进行图像处理。按照人眼的习惯,每秒15帧以下就会感觉不流畅。然后6个镜头的图像还要整合到头显上。

本来处理一个2500万像素的图像不算什么,但是要达到每秒15帧以上就比较难了。相比之下,家用录像1080P仅仅是200万像素x每秒30帧。所以DAS需要处理的信息量是1080P的6倍,这还只是一个镜头的输入。

我来想当然一下。每个镜头有自己的处理器来找寻目标。之后图像会下采样,再集中整合,然后提供给头显。

以上只是我自己算着玩。没有论点。随便讨论/喷。


试算了一下DAS的作用距离。可能有错的地方,欢迎指教。

EOS的每个红外摄像头是90度的锥体覆盖。这样也使得计算起来容易一些。

假设感光元器件是5000x5000。那么覆盖45度用2500像素。至少一个像素需要感应到目标。因为正好是45度,那么目标大小/距离等于1/2500。

飞机的主要红外源是发动机。以发动机尾焰来说,加力时这个红外源有可能是十几米长。但是如果没有加力,可能只有几米。

当然了,以上的1/2500实际上过于简化了。DAS用的红外,那么如果目标距离远一倍,并不等于那么像素就不能捕捉到信息,只是强度小。距离增加一倍,强度减弱到1/8。这个和红外感光元件的敏感度有关了。我不懂硬件,不过估计作用距离可以翻番或者四番。就是说,如果发动机不加力,5米长的尾焰,捕捉距离是5米x2500x4=50公里。如果目标机开了加力,那么作用距离可能到150公里。

阵风的类似系统曾经在120公里的距离上捕捉到目标。有传说F-35的DAS对战斗机的作用距离是60海里(100公里)。这都和以上计算符合。

那么这个DAS系统需要处理6个2500万像素的镜头所捕取的信息。这里不是说照相,而是接近实时的进行图像处理。按照人眼的习惯,每秒15帧以下就会感觉不流畅。然后6个镜头的图像还要整合到头显上。

本来处理一个2500万像素的图像不算什么,但是要达到每秒15帧以上就比较难了。相比之下,家用录像1080P仅仅是200万像素x每秒30帧。所以DAS需要处理的信息量是1080P的6倍,这还只是一个镜头的输入。

我来想当然一下。每个镜头有自己的处理器来找寻目标。之后图像会下采样,再集中整合,然后提供给头显。

以上只是我自己算着玩。没有论点。随便讨论/喷。


这都想到了啊
你忘记了世界上还有DSP这个东东? 举个例子 德州仪器好多片子根本就是禁运的
图像还有压缩算法等等各种处理算法
duwuan 发表于 2012-6-28 12:01
图像还有压缩算法等等各种处理算法
压缩是传输和存储时用的。做图像处理的时候必须要先解压。

一般,摄像头硬件取得图像时压缩,节省带宽。传送到处理器,先解压,在处理。然后再压缩,往下一关传。
duwuan 发表于 2012-6-28 12:00
你忘记了世界上还有DSP这个东东? 举个例子 德州仪器好多片子根本就是禁运的
是的。那个也得加上去。
建议楼主算算 双发枭龙装备EODAS的话 最少装几个、覆盖多少角度 可以抗衡对方


移动目标可以用相位算法提高SNR,有时就算比背景噪声低也能识别出来
加上在红外波段天空是非常冷的,背景噪声本来就很低
还有这种大规模图像处理用的可以肯定是FPGA


移动目标可以用相位算法提高SNR,有时就算比背景噪声低也能识别出来
加上在红外波段天空是非常冷的,背景噪声本来就很低
还有这种大规模图像处理用的可以肯定是FPGA
假设感光元器件是5000x5000


第一个假设就错了……

这是作为空战态势提示的、信息那么过量作甚?
何况作为战机使用、你想要像素间距缩到多小?拍出来的影像模糊不堪……有用么?或者每秒5帧的刷新率?

iewgnem 发表于 2012-6-28 12:47
移动目标可以用相位算法提高SNR,有时就算比背景噪声低也能识别出来
加上在红外波段天空是非常冷的,背景噪 ...
具体的算法我就不太懂了。

请教一下,各种算法用上去,是否可以降低对像素量的要求?
johnqh 发表于 2012-6-28 12:55
具体的算法我就不太懂了。

请教一下,各种算法用上去,是否可以降低对像素量的要求?
理论上可以,比如如果把多幅图像用一些算法合成(具体要看论文,最简单可以是相减,不过效果不好),移动目标会形成一个直线,而背景会自相抵消。

说是这么说,从视频上看至少现在跟踪的目标都是覆盖多像素的,所以分辨率要求也肯定不低
yes413aa 发表于 2012-6-28 12:38
建议楼主算算 双发枭龙装备EODAS的话 最少装几个、覆盖多少角度 可以抗衡对方
按照示意图来看,DAS实际上不是全向覆盖。虽然每个镜头都是90度,但是因为覆盖的是锥体,镜头覆盖面之间有空隙。

小龙的用了4个镜头,正负40度,就是说是80度锥体。但是估计分辨率不高,基本只是对导弹预警。那几个疑似镜头在棍子,筷子,甚至八爷上都有。我不认为能和DAS比。框架有了,但是性能是需要强大的带宽和处理能力来支持的。

我更喜欢阵风的鱼眼设置。如上所说,F-35的镜头之间也有间隙。阵风的两个鱼眼不知道覆盖多少角度。理论上覆盖180度是可能的。即使没有180度,那两个鱼眼依然可能比F-35的6个镜头覆盖面大。缺点是鱼眼必须是弧状突起的,违背隐身。

还有一个想法,就是用低像素的全向覆盖结合远距离的光电雷达。因为给同样分辨率的感光元件,覆盖角度越广,则作用距离越短。鱼眼镜头发现有疑似目标,可以用长焦距的光电雷达去做具体分析。

就是说似乎有很多种方式,各有取舍。阵风有鱼眼,有光电,又和雷达预警器交联,还用带的米卡的导引头做附带的红外传感器。
johnqh 发表于 2012-6-28 13:17
按照示意图来看,DAS实际上不是全向覆盖。虽然每个镜头都是90度,但是因为覆盖的是锥体,镜头覆盖面之间有 ...
好主意
楼主的分析是错的
物体成像比CCD的像素小照样能成像,你用数码相机拍星星怎么拍的出来的啊?
楼主的分析是错的
物体成像比CCD的像素小照样能成像,你用数码相机拍星星怎么拍的出来的啊?
你试试用广角,1/30秒拍个星星试试。
你换成15秒试试?
正因为数据量暴涨,所以要用光纤总线。
LZ有没有听过二值化?

EODAS得到的数据也是32位全彩的?唉,无语,越来越不专业了。
LZ有没有听过二值化?

EODAS得到的数据也是32位全彩的?唉,无语,越来越不专业了。
晕,我有说全彩吗?
johnqh 发表于 2012-6-29 00:08
晕,我有说全彩吗?
家用录像1080P仅仅是200万像素x每秒30帧。所以DAS需要处理的信息量是1080P的6倍,这还只是一个镜头的输入。

这话是谁说的?
你换成15秒试试?
摄影和摄像是不同的,朋友。

每秒30帧,哪里来的一帧15秒?
家用录像1080P仅仅是200万像素x每秒30帧。所以DAS需要处理的信息量是1080P的6倍,这还只是一个镜头的输入 ...
对。如果只用8位,那么单亮度是全彩的1/3。

但是未必是8位吧?军用的我不知道,所以想当然地认为会高一些。也因为不知道,所以没有去细分。

不过你说得对。如果用8位亮度,那么信息量是同等像素的1/3。
johnqh 发表于 2012-6-29 00:10
摄影和摄像是不同的,朋友。

每秒30帧,哪里来的一帧15秒?
抓不到主旨吗?楼主说的是分辨率不够就无法探测远距离的小物体,所以必须要用5000*5000的成像传感器,然后带来一系列问题如数据量大帧率不够等
我的帖子反驳的是,哪怕是很低的分辨率,要在暗背景下探测明亮的小物体不存在任何问题,就比如用30万像素的照相机拍摄天体,天体在CCD上成的像实际上远小于单个像素,但是照样可以成像
然后你就说快门什么什么的,楼主的立意中提到快门了吗?没提到快门你强调1/30秒干啥?
我的意思就是说,哪怕是256*256的成像单元,照样有实际作用,对任务的完成已经很有帮助了
你不去看看雷达刚使用时那可怜的分辨率(而且还不是二维的),你能说没用吗?人家照样可以再几十上百公里上探测到飞机回波,不就是暗背景高亮度的目标
laomao0000 发表于 2012-6-29 11:36
抓不到主旨吗?楼主说的是分辨率不够就无法探测远距离的小物体,所以必须要用5000*5000的成像传感器,然后 ...
战场环境远远不是你想的那样。
白天不是暗背景这个系统就报废了还有个P用,夜晚敌机不开加力你又看不到,开了加力人家甩几个干扰弹你没分辨率连基本的区分都做不了。
其结果是你的设想即使在理想背景中也是完全没有任何作用。
laomao0000 发表于 2012-6-29 11:36
抓不到主旨吗?楼主说的是分辨率不够就无法探测远距离的小物体,所以必须要用5000*5000的成像传感器,然后 ...
的确不能拍到星星  拍到星星就麻烦了  分不清是星星还是别的什么东西
eodas主要成像段在红外  成像原理和CCD不一样的
这楼要歪。楼上几个人所说的事物其实互不相关。
风不悲 发表于 2012-6-29 12:19
的确不能拍到星星  拍到星星就麻烦了  分不清是星星还是别的什么东西
eodas主要成像段在红外  成像原理和 ...
请明示吧,成像原理怎么个不同
我的理解是原理相同,但是具体实现的材料不同,如红外镜头需要用特殊的透红外材料,不能用玻璃,再比如CCD需要不一样的半导体材料,或者加上制冷
zmc4483103 发表于 2012-6-29 12:03
战场环境远远不是你想的那样。
白天不是暗背景这个系统就报废了还有个P用,夜晚敌机不开加力你又看不到, ...
你这句话说给那些红外成像制导的导弹听好了,人家的分辨率记得有256*256的,你愿意被它盯上还是被普通红外制导的导弹盯上?
hjjonnet 发表于 2012-6-29 12:23
这楼要歪。楼上几个人所说的事物其实互不相关。
现在请这位不歪楼的中校同志发表自己的观点
你这句话说给那些红外成像制导的导弹听好了,人家的分辨率记得有256*256的,你愿意被它盯上还是被普通红外 ...
哪个型号?导引头视角多少?

短弹的导引头视角很窄的,但是可以动。而且作用距离不需要超过20公里。

以我的计算,取10度视角(DAS的1/9),20公里作用距离(DAS的1/5),只需要接近100x100的像素。完全根据主楼一样的算法。

所以。。。你说256x256,表示我的DAS的结论恐怕还低了。
风不悲主张是DAS设计时就不会拍入星光,对的。因为星光的光波特性可能根本不会对感光器有作用。
而laomao的是光源再小--在感光器材上的投影面积,也可以成像,也是对的,只要它对感光器有作用,拍到不是问题。
楼主所说的提高感光器数量只是增强探测器能力的手段之一,但绝对不是唯一,提高检出限有很多方法。至于数据处理,飞机可不是用PS去处理这些数据,没有把图像再处理的必要自然也不需要什么图层/还原/路径/格式什么的,大量无效数据甚至可能在成像这一块就可以灭了。
风不悲主张是DAS设计时就不会拍入星光,对的。因为星光的光波特性可能根本不会对感光器有作用。
而laomao的 ...
要灭也要计算,只是在哪里计算的问题。


手机问题,版主删一下?

手机问题,版主删一下?
风不悲主张是DAS设计时就不会拍入星光,对的。因为星光的光波特性可能根本不会对感光器有作用。
而laomao的 ...
要灭也要计算,只是在哪里计算的问题。
风不悲主张是DAS设计时就不会拍入星光,对的。因为星光的光波特性可能根本不会对感光器有作用。
而laomao的 ...
要灭也要计算,只是在哪里计算的问题。
duwuan 发表于 2012-6-28 12:00
你忘记了世界上还有DSP这个东东? 举个例子 德州仪器好多片子根本就是禁运的
为啥这样额芯片中国做不出来?
http://youtu.be/1LGhfKTbeUA

殲20的愛我答絲EODAS

龍舟(雙發梟龍)也有愛我答絲EODAS

同一個設計師幹的啊 

殲20具有F35等級的EODAS光電分布式孔徑系統 F22A卻沒有 

在空戰中 F22A將很可能被重型殲20甚至沈飛中型龍舟戰機殲滅
只有灰度吧,没有颜色的,传输的数据量要少好多,处理起来的速度也能快很多。
而且好像摄像的时候,不是每一帧都是独立的一幅画面吧,每一帧记录的都是和前一帧有差异的地方。
nbginbgi 发表于 2012-6-29 21:14
为啥这样额芯片中国做不出来?
華睿1號 國產的多核DSP晶片
水妞的中方 发表于 2012-6-29 21:41
華睿1號 國產的多核DSP晶片 
为啥是繁体字,难道是台湾的?