作者mararsky (阿羽)
看板MATLAB
標題[討論] 傳輸訊號模擬相位delay的作法
時間Tue Apr 30 14:11:22 2013
各位版上的大大好,目前使用matlab撰寫BPSK的傳輸接受機制
而經過通道後,理應會產生phase和symbol上的delay,symbol
的初始delay很好模擬出來,但是小弟我現在卡在不知如何撰寫
phase上的delay,凡請各位指點,在此附上我的部分程式碼。
clear; close all
SNR = 0.5; %Signal to noise ratio
E_s = 1; %Signal Power
No = E_s^2/SNR; %Noise Power
sig_n = sqrt(No/2); %Noise standard deviation
w=2*pi*5; %Frequency
t=0.01:0.01:0.2; %Time Vector
N=200; %Number of Bits
%Create Signal Vectors
for ii=1:2
s(ii,:) = E_s*cos(w*t-2*pi*ii/2);
end
%Modulate a random bit stream
signal = ceil(2*rand(1,N));
m_sig = [];
for ii=1:N
m_sig = [m_sig s(signal(ii),:)]; %順便請問一下,這一行的表示法是學長教的
end %我看不太懂為何m_sig = [m_sig ←裡面會有自己?
plot(m_sig(1:100),':') %plot the Original Modulate signal
%%%%%% phase delay 加入地方(模擬通道延遲)
這邊應該是要加上phase delay,可是我卻不知道要用甚麼方法改變我的
資料值,凡請各位指點指點,謝謝。
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 120.125.82.215