作者mararsky (阿羽)
看板MATLAB
标题[讨论] 传输讯号模拟相位delay的作法
时间Tue Apr 30 14:11:22 2013
各位版上的大大好,目前使用matlab撰写BPSK的传输接受机制
而经过通道後,理应会产生phase和symbol上的delay,symbol
的初始delay很好模拟出来,但是小弟我现在卡在不知如何撰写
phase上的delay,凡请各位指点,在此附上我的部分程式码。
clear; close all
SNR = 0.5; %Signal to noise ratio
E_s = 1; %Signal Power
No = E_s^2/SNR; %Noise Power
sig_n = sqrt(No/2); %Noise standard deviation
w=2*pi*5; %Frequency
t=0.01:0.01:0.2; %Time Vector
N=200; %Number of Bits
%Create Signal Vectors
for ii=1:2
s(ii,:) = E_s*cos(w*t-2*pi*ii/2);
end
%Modulate a random bit stream
signal = ceil(2*rand(1,N));
m_sig = [];
for ii=1:N
m_sig = [m_sig s(signal(ii),:)]; %顺便请问一下,这一行的表示法是学长教的
end %我看不太懂为何m_sig = [m_sig ←里面会有自己?
plot(m_sig(1:100),':') %plot the Original Modulate signal
%%%%%% phase delay 加入地方(模拟通道延迟)
这边应该是要加上phase delay,可是我却不知道要用甚麽方法改变我的
资料值,凡请各位指点指点,谢谢。
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 120.125.82.215