摘要:項目中需要用到對人聲音頻數(shù)據(jù)進行變聲處理。具體工具類代碼變聲原始數(shù)據(jù)輸入流變速率大于為加快語速,小于為放慢語速音調(diào)變化率大于為降低音調(diào)深沉,小于為提升音調(diào)尖銳變聲后的數(shù)據(jù)輸入流這里根據(jù)自己格式修改對應參數(shù)。
項目中需要用到對PCM人聲音頻數(shù)據(jù)進行變聲處理??嗫鄴暝艘恢芙K于找到了純Java實現(xiàn)的一套框架——TarsosDSP。功能非常強大!可以實時音頻處理!當然我只用到了對文件處理。實際上邏輯是一樣的
TarsosDSP的GitHub地址:https://github.com/JorenSix/T...。將它整合至自己的項目工程。
具體Java工具類代碼:
/** * 變聲 * @param rawPcmInputStream 原始PCM數(shù)據(jù)輸入流 * @param speedFactor 變速率 (0,2) 大于1為加快語速,小于1為放慢語速 * @param rateFactor 音調(diào)變化率 (0,2) 大于1為降低音調(diào)(深沉),小于1為提升音調(diào)(尖銳) * @return 變聲后的PCM數(shù)據(jù)輸入流 */ public static InputStream speechPitchShift(final InputStream rawPcmInputStream,double speedFactor,double rateFactor) { // 這里根據(jù)自己PCM格式修改對應參數(shù)。我們項目里音頻格式是固定的,所以寫死 TarsosDSPAudioFormat format = new TarsosDSPAudioFormat(16000,16,1,true,false); AudioInputStream inputStream = new AudioInputStream(rawPcmInputStream, JVMAudioInputStream.toAudioFormat(format),AudioSystem.NOT_SPECIFIED); JVMAudioInputStream stream = new JVMAudioInputStream(inputStream); WaveformSimilarityBasedOverlapAdd w = new WaveformSimilarityBasedOverlapAdd(WaveformSimilarityBasedOverlapAdd.Parameters.speechDefaults(speedFactor, 16000)); int inputBufferSize = w.getInputBufferSize(); int overlap = w.getOverlap(); AudioDispatcher dispatcher = new AudioDispatcher(stream, inputBufferSize ,overlap); w.setDispatcher(dispatcher); AudioOutputToByteArray out = new AudioOutputToByteArray(); dispatcher.addAudioProcessor(w); dispatcher.addAudioProcessor(new RateTransposer(rateFactor)); dispatcher.addAudioProcessor(out); dispatcher.run(); return new ByteArrayInputStream(out.getData()); }
其中數(shù)據(jù)轉(zhuǎn)錄器(AudioOutputToByteArray)代碼如下:
public class AudioOutputToByteArray implements AudioProcessor { private boolean isDone = false; private byte[] out = null; private ByteArrayOutputStream bos; public AudioOutputToByteArray() { bos = new ByteArrayOutputStream(); } public byte[] getData() { while (!isDone && out == null) { try { Thread.sleep(10); } catch (InterruptedException ignored) {} } return out; } @Override public boolean process(AudioEvent audioEvent) { bos.write(audioEvent.getByteBuffer(),0,audioEvent.getByteBuffer().length); return true; } @Override public void processingFinished() { out = bos.toByteArray().clone(); bos = null; isDone = true; } }
可以通過這個工具方法播放音頻:
/** * 播放PCM * * 不要在非桌面環(huán)境調(diào)用。。。鬼知道會發(fā)生什么 * @param rawPcmInputStream 原始PCM數(shù)據(jù)輸入流 * @throws LineUnavailableException */ public static void play(final InputStream rawPcmInputStream) throws LineUnavailableException { // 這里根據(jù)自己PCM格式修改對應參數(shù)。我們項目里音頻格式是固定的,所以寫死 TarsosDSPAudioFormat format = new TarsosDSPAudioFormat(16000,16,1,true,false); AudioInputStream inputStream = new AudioInputStream(rawPcmInputStream, JVMAudioInputStream.toAudioFormat(format),AudioSystem.NOT_SPECIFIED); JVMAudioInputStream stream = new JVMAudioInputStream(inputStream); AudioDispatcher dispatcher = new AudioDispatcher(stream, 1024 ,0); dispatcher.addAudioProcessor(new AudioPlayer(format,1024)); dispatcher.run(); }
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/68217.html
摘要:前言本文翻譯自上的利用,這是中的的一個入門教程。原文是英文,但有日本同志翻譯的日文版。這是為了提供一個基本的低音増幅效果在這個例子中可以設定過濾器的種類,周波數(shù),甚至的值。如果是過濾器的話,可以提供一個比指定周波數(shù)低的低音増幅。 前言 本文翻譯自MDN上的《Web Audio APIの利用》,這是HTML5中的Web Audio API的一個入門教程。原文是英文,但有日本同志翻譯的日文...
摘要:格式文件中不包含頭部信息,播放器無法知道采樣率,聲道數(shù),采樣位數(shù),音頻數(shù)據(jù)大小等信息,導致無法播放。 本文記錄一點工作經(jīng)歷,探討音頻文件的格式更多訪問我的博客 前言 最近在整理音視頻編程的知識,回憶起半年多,有一次需求是在后臺播放某來源的 pcm 文件,當時處理方法用了點技巧,記錄下來 背景:業(yè)務需求,在web后臺里播放 pcm 文件,文件不大(約300KB,已知 pcm 的參數(shù)采樣...
摘要:不多說直接貼代碼獲取文件的音頻流,的格式將音頻轉(zhuǎn)化為的格式保存下來代碼忘記借鑒了哪位大神的不好意思好像是綜合了部分代碼下面的是依賴小程序錄音格式上傳服務器轉(zhuǎn)化為格式后通過百度語音識別結(jié)果 不多說直接貼代碼 import com.baidu.aip.speech.AipSpeech; import javazoom.spi.mpeg.sampled.file.MpegAudioFileR...
閱讀 1151·2023-04-26 03:02
閱讀 1192·2023-04-25 19:18
閱讀 2595·2021-11-23 09:51
閱讀 2577·2021-11-11 16:55
閱讀 2631·2021-10-21 09:39
閱讀 1710·2021-10-09 09:59
閱讀 2005·2021-09-26 09:55
閱讀 3532·2021-09-26 09:55