Спектральный классификатор¶
В данном примере показана модель спектрального классификатора. Эта модель, разработанная в Engee, демонстрирует применение системы блоков и масок для реализации алгоритмов цифровой обработки сигналов. Такой подход позволяет эффективно обрабатывать и анализировать данные, обеспечивая гибкость и удобство при проектировании сложных систем.
Спектральный классификатор используется для выделения и идентификации частотных составляющих сигнала, что является ключевым элементом в распознавании и анализе различных типов сигналов. В данном примере таким сигналом стала речь.
Изменяя параметры – ширину полос и пороговые значения – можно адаптировать алгоритм под конкретные требования, повышая точность результата.
Реализованная модель представлена на рисунке ниже.
Вспомогательные функции¶
# Подключение вспомогательной функции запуска модели.
function run_model( name_model)
Path = (@__DIR__) * "/" * name_model * ".engee"
if name_model in [m.name for m in engee.get_all_models()] # Проверка условия загрузки модели в ядро
model = engee.open( name_model ) # Открыть модель
model_output = engee.run( model, verbose=true ); # Запустить модель
else
model = engee.load( Path, force=true ) # Загрузить модель
model_output = engee.run( model, verbose=true ); # Запустить модель
engee.close( name_model, force=true ); # Закрыть модель
end
sleep(5)
return model_output
end
using FFTW
# Расчёт спектра сигнала
function compute_spectrum(signal, fs)
n = length(signal)
spectrum = abs.(fft(signal)) / n
freqs = (0:n-1) .* (fs / n)
spectrum[1:Int(n/2)], freqs[1:Int(n/2)] # Вернуть половину спектра (для удобства)
end
using WAV;
using .EngeeDSP;
function audioplayer(patch, Samples_per_audio_channel);
s, fs = wavread(patch);
buf = IOBuffer();
wavwrite(s, buf; Fs=fs);
data = base64encode(unsafe_string(pointer(buf.data), buf.size));
display("text/html", """<audio controls="controls" {autoplay}>
<source src="data:audio/wav;base64,$data" type="audio/wav" />
Your browser does not support the audio element.
</audio>""");
return s
end
Запуск модели и анализ результатов¶
Прослушаем входной сигнал и проанализируем его спектр.
signal = audioplayer("$(@__DIR__)/speech_dft_8k.wav", 256);
gr()
spectrum_inp, freqs_inp = compute_spectrum(signal, 8000)
plot(freqs_inp, spectrum_inp, xlabel="Frequency (Hz)", ylabel="Amplitude")
В данном аудио содержится запись речи. Полезные частоты расположены в пределах 1 МГц. Давайте попробуем их классифицировать при помощи нашей модели. Для начала зададим настройки нашего блока.
fs = 8000; # Частота дискретизации
framesize = 2048; # Размер сегмента анализа
nfft = 1024; # Размер FFT
df = fs/nfft; # Ширина бина FFT
f1 = 200; # Нижняя граница первой полосы (Гц)
f2 = 1900; # Верхняя граница первой полосы (Гц)
f3 = 2000; # Нижняя граница второй полосы (Гц)
f4 = 3500; # Верхняя граница второй полосы (Гц)
indx1 = round(Int,f1/df); # Индексы в массиве выходных данных FFT
indx2 = round(Int,f2/df);
indx3 = round(Int,f3/df);
indx4 = round(Int,f4/df);
Теперь запустим модель и проанализируем результаты.
run_model("simple_classifier") # Запуск модели.
Speech = collect(simout["simple_classifier/V/Speech"])
V_on_UV = collect(simout["simple_classifier/V/V/UV"])
plot(V_on_UV.time, V_on_UV.value, seriestype=:steppost, label="V/UV")
plot!(Speech.time, Speech.value, label="signal")
Как мы видим, из сигнала были выделены области, удовлетворяющие спектральным характеристикам, заданным в настройках маски нашего блока.
Вывод¶
В данном примере была разобрана модель спектрального классификатора и возможности её применения для обработки аудиосигнала.