Спектральная классификация
Спектральный классификатор
В данном примере показана модель спектрального классификатора.
Эта модель, разработанная в Engee, демонстрирует применение
системы блоков и масок для реализации алгоритмов цифровой обработки
сигналов. Такой подход позволяет эффективно обрабатывать и анализировать
данные, обеспечивая гибкость и удобство при проектировании сложных систем.
Спектральный классификатор
используется для выделения и идентификации частотных составляющих сигнала,
что является ключевым элементом в распознавании и анализе различных типов
сигналов. В данном примере таким сигналом стала речь.
Изменяя параметры – ширину полос и пороговые
значения – можно адаптировать алгоритм под конкретные требования, повышая
точность результата.
Реализованная модель представлена на рисунке ниже.
Вспомогательные функции
Pkg.add("WAV")
# Подключение вспомогательной функции запуска модели.
function run_model( name_model)
Path = (@__DIR__) * "/" * name_model * ".engee"
if name_model in [m.name for m in engee.get_all_models()] # Проверка условия загрузки модели в ядро
model = engee.open( name_model ) # Открыть модель
model_output = engee.run( model, verbose=true ); # Запустить модель
else
model = engee.load( Path, force=true ) # Загрузить модель
model_output = engee.run( model, verbose=true ); # Запустить модель
engee.close( name_model, force=true ); # Закрыть модель
end
sleep(5)
return model_output
end
using FFTW
# Расчёт спектра сигнала
function compute_spectrum(signal, fs)
n = length(signal)
spectrum = abs.(fft(signal)) / n
freqs = (0:n-1) .* (fs / n)
spectrum[1:Int(n/2)], freqs[1:Int(n/2)] # Вернуть половину спектра (для удобства)
end
using WAV;
using .EngeeDSP;
function audioplayer(patch, Samples_per_audio_channel);
s, fs = wavread(patch);
buf = IOBuffer();
wavwrite(s, buf; Fs=fs);
data = base64encode(unsafe_string(pointer(buf.data), buf.size));
display("text/html", """<audio controls="controls" {autoplay}>
<source src="data:audio/wav;base64,$data" type="audio/wav" />
Your browser does not support the audio element.
</audio>""");
return s
end
Запуск модели и анализ результатов
Прослушаем входной сигнал и проанализируем его спектр.
signal = audioplayer("$(@__DIR__)/speech_dft_8k.wav", 256);
gr()
spectrum_inp, freqs_inp = compute_spectrum(signal, 8000)
plot(freqs_inp, spectrum_inp, xlabel="Frequency (Hz)", ylabel="Amplitude")
В данном аудио содержится запись речи. Полезные частоты расположены в пределах 1 МГц.
Давайте попробуем их классифицировать при помощи нашей модели.
Для начала зададим настройки нашего блока.
fs = 8000; # Частота дискретизации
framesize = 2048; # Размер сегмента анализа
nfft = 1024; # Размер FFT
df = fs/nfft; # Ширина бина FFT
f1 = 200; # Нижняя граница первой полосы (Гц)
f2 = 1900; # Верхняя граница первой полосы (Гц)
f3 = 2000; # Нижняя граница второй полосы (Гц)
f4 = 3500; # Верхняя граница второй полосы (Гц)
indx1 = round(Int,f1/df); # Индексы в массиве выходных данных FFT
indx2 = round(Int,f2/df);
indx3 = round(Int,f3/df);
indx4 = round(Int,f4/df);
Теперь запустим модель и проанализируем результаты.
run_model("simple_classifier") # Запуск модели.
Speech = collect(simout["simple_classifier/V/Speech"])
V_on_UV = collect(simout["simple_classifier/V/V/UV"])
plot(V_on_UV.time, V_on_UV.value, seriestype=:steppost, label="V/UV")
plot!(Speech.time, Speech.value, label="signal")
Как мы видим, из сигнала были выделены
области, удовлетворяющие спектральным
характеристикам, заданным в настройках
маски нашего блока.
Вывод
В данном примере была разобрана модель
спектрального классификатора и возможности
её применения для обработки аудиосигнала.