作者 tsunglee(快炸了) 看板 comm_and_RF
标题 [问题]:电磁波能量损耗~~
时间 Sun Aug 20 20:47:14 2006
───────────────────────────────────────
对於一个microwave sensor(有点像雷达)....12Vdc电池
侦测时,其发射功率为15dBm(经换算应约为31mW)
电磁波频率为10.525GHz(波长应约为0.03公尺)
增益为8
问其最大传输距离d公尺??
我认为是
发射功率 + 增益 - 从sensor到目标的损耗 - 从目标回到sensor的损耗 > 背景杂讯
15dBm + 8dBm - ( 20*log(4πd/0.03)) * 2 > 背景杂讯
(括号中为FreePathLoss)
我的问题是
1.一个用12Vdc电池的sensor的发射功率为31mW合理吗?(对这个数字没概念)
2.一般来说背景杂讯应该代入多少才合理(环境杂讯和白杂讯)..
是有看过灵敏度为-85dBm...难道杂讯比-85还要低???
3.根据上式,不管背景杂讯怎麽代,算出来的距离都小得可怜
可是有些规格说,侦测距离为15公尺,请问那里出问题了?
4.如果两个sensor相近,不会产生干扰吗??是什麽方法避免干扰的呢?
=============================
小弟没有相关背景,已经拼命的找资料了@@
但仍有很多不懂的地方,以上也可能错得离谱,恳请大家帮忙!!!
感谢各位版友了...m(_ _)m
※ 编辑: tsunglee 来自: 140.119.145.20 (08/21 04:07)