Android錄音并且輸出為Mp4文件的方法教程
前言
錄音采用的是AudioRecord,通過MediaCodec進行編碼,用MediaMuxer合成輸出MP4文件。
1.
這里用AudioRecord來得到從麥克風錄制的聲音,AudiorRecord的用法還是比較簡單的,首先初始化AudioRecord
fun prepare(file: File?, outputFormat: Int = MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4, audioSource: Int = MediaRecorder.AudioSource.MIC, sampleRateInHz: Int = 44100, channelConfig: Int = AudioFormat.CHANNEL_IN_STEREO, audioFormat: Int = AudioFormat.ENCODING_PCM_16BIT, bufferSizeInBytes: Int = AudioRecord.getMinBufferSize(sampleRateInHz, channelConfig, audioFormat)) { //初始化AudioRecord prepareAudioRecord(audioSource, sampleRateInHz, channelConfig, audioFormat, bufferSizeInBytes) //初始化輸出文件 prepareOutputFile(file) //初始化AudioEncoder prepareAudioEncoder(sampleRateInHz, outputFormat) } private fun prepareAudioRecord(audioSource: Int, sampleRateInHz: Int, channelConfig: Int, audioFormat: Int, bufferSizeInBytes: Int) { minSize = AudioRecord.getMinBufferSize(sampleRateInHz, channelConfig, audioFormat) audioRecord = AudioRecord(audioSource, sampleRateInHz, channelConfig, audioFormat, bufferSizeInBytes) }
AudioRecord的構造函數需要出入幾個參數。
(1).
audioSource代表音頻來源,這里傳入MediaRecorder.AudioSource.MIC,代表音頻來源于麥克風。
(2).
sampleRateInHz代表以赫茲表示的采樣率,傳入44100,這個數值可以保證所有設備都正常工作。
(3).
channelConfig代表聲道配置,AudioFormat.CHANNEL_IN_STEREO代表傳入立體聲。
(4).
audioFormat代表音頻數據將被返回的格式。傳入AudioFormat.ENCODING_PCM_16BIT。
(5).
bufferSizeInBytes寫入音頻數據的緩沖區(qū)的總大?。ㄒ宰止?jié)為單位)這里默認傳入getMinBufferSize,這個方法返回成功創(chuàng)建AudioRecord實例所需的緩沖區(qū)大小的最小值。
開始錄音時,啟動一個線程
private val recordRunnable = Runnable { val data = ByteArray(minSize) //AudioRecord開始錄音 audioRecord?.startRecording() while (isRecording) { //將音頻數據寫入ByteArray audioRecord?.read(data, 0, data.size) audioEncoder.start() audioEncoder.drainEncoder(data) } audioEncoder.release() audioRecord?.stop() audioRecord?.release() audioRecord = null }
這樣就把音頻數據寫入一個bytearray,然后將數據傳入AudioEncoder進行編碼輸出。
2.
AudioRecord得到的音頻數據格式是pcm的,一般情況下無法bofang(可以通過AudioTrack播放),所以我們需要一次編碼轉換,這里用到的就是MediaCodec,MediaCodec這里我封裝在AudioEncoder里。
我們首先要初始化MediaCodec:
private fun prepareAudioCodec(bitrate: Int, sampleRate: Int) { bufferInfo = MediaCodec.BufferInfo() val mediaFormat = MediaFormat() mediaFormat.setInteger(MediaFormat.KEY_AAC_PROFILE, MediaCodecInfo.CodecProfileLevel.AACObjectLC) mediaFormat.setString(MediaFormat.KEY_MIME, MediaFormat.MIMETYPE_AUDIO_AAC) mediaFormat.setInteger(MediaFormat.KEY_BIT_RATE, bitrate) mediaFormat.setInteger(MediaFormat.KEY_CHANNEL_COUNT, 2) mediaFormat.setInteger(MediaFormat.KEY_SAMPLE_RATE, sampleRate) audioCodec = MediaCodec.createEncoderByType(MediaFormat.MIMETYPE_AUDIO_AAC) audioCodec.configure(mediaFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE) }
這里需要創(chuàng)建一個MediaFormat,具體需要傳入的參數大家可以參考開發(fā)者文檔,需要注意的是音頻和視頻的MediaFormat設置的參數是不一樣的,接著調用MediaCodec的configure,此時MediaCodec已經進入了configured的狀態(tài),可以開始進行編碼了。
這里說到MediaCodec的狀態(tài),大家可以看來自開發(fā)者文檔的MediaCodec的狀態(tài)機圖片。
看一下MediaCodec的工作過程:
可以將MediaCodec理解為傳送帶,將空的buffers傳給audiorecord,audiorecord將得到的bytearray放入空的buffers,然后傳入MediaCodec,mediaCodec編碼后,傳入MediaMuxer,MediaMuxer寫入編碼后的數據再講buffers傳給MediaCodec,MediaCodec清空使用過的Buffers,再傳給AudioRecord。buffer是java nio庫里的類,這里就不詳述了,不清楚的請自行google。
調用configure后,我們就進入了configred狀態(tài),之后當audiorecord得到數據后,當MediaCodec調用start方法后,將ByteArray傳入MediaCodec,進行編碼:
fun drainEncoder(data: ByteArray) { val inIndex = audioCodec.dequeueInputBuffer(0) if (inIndex > 0) { val inBuffer = getInBuffer(inIndex) inBuffer.clear() inBuffer.put(data) if (!isEncoding) { audioCodec.queueInputBuffer(inIndex, 0, 0, System.nanoTime() / 1000, BUFFER_FLAG_END_OF_STREAM) } else { audioCodec.queueInputBuffer(inIndex, 0, data.size, System.nanoTime() / 1000, 0) } } do { val outIndex = audioCodec.dequeueOutputBuffer(bufferInfo, 0) when { outIndex > 0 -> { if (bufferInfo.size != 0) { val outBuffer = getOutBuffer(outIndex) outBuffer.position(bufferInfo.offset) outBuffer.limit(bufferInfo.offset + bufferInfo.size) mediaMuxer.writeSampleData(trackIndex, outBuffer, bufferInfo) } audioCodec.releaseOutputBuffer(outIndex, false) } outIndex == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED -> { trackIndex = mediaMuxer.addTrack(audioCodec.outputFormat) mediaMuxer.start() } } } while (outIndex > 0) if (bufferInfo.flags and MediaCodec.BUFFER_FLAG_END_OF_STREAM != 0) { isEncoding = false } }
這個方法就對應了MediaCodec對應的工作過程。
3.
MediaMuxer用來合成并輸出音頻,MediaMuxer用法還是比較簡單的,這里就不詳述了,需要注意的是,MediaMuxer只能合并一個音頻軌道和一個視頻軌道,還要注意的是要在addTrack調用之后再調用star方法。
最后附上項目地址
總結
以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。
- Android音頻錄制MediaRecorder之簡易的錄音軟件實現代碼
- Android簡單的利用MediaRecorder進行錄音的實例代碼
- Android應用開發(fā):電話監(jiān)聽和錄音代碼示例
- Android App調用MediaRecorder實現錄音功能的實例
- Android開發(fā)四大組件之實現電話攔截和電話錄音
- Android使用MediaRecorder實現錄音及播放
- Android錄音應用實例教程
- 一個html5播放視頻的video控件只支持android的默認格式mp4和3gp
- 詳解Android開發(fā)之MP4文件轉GIF文件
- Android 使用VideoView播放MP4的簡單實現
相關文章
封裝的android監(jiān)聽手指左右滑動屏幕的事件類分享
這篇文章主要介紹了封裝的android監(jiān)聽手指左右滑動屏幕的事件類分享,本文分別給出了簡單處理方法的代碼和封裝好的處理類代碼,需要的朋友可以參考下2015-05-05Android RecyclerView區(qū)分視圖類型的Divider的實現
本篇文章主要介紹了Android RecyclerView區(qū)分視圖類型的Divider的實現,小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-04-04Android ReboundScrollView仿IOS拖拽回彈效果
這篇文章主要為大家詳細介紹了Android ReboundScrollView仿IOS拖拽回彈效果,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2016-11-11android開發(fā)教程之系統(tǒng)資源的使用方法 android資源文件
這篇文章主要介紹了android中的系統(tǒng)資源的使用方法,包括顏色資源 、字符串資源、尺寸資源、XML資源文件,需要的朋友可以參考下2014-02-02Android編程之非調用系統(tǒng)界面實現發(fā)送彩信的方法(MMS)
這篇文章主要介紹了Android編程之非調用系統(tǒng)界面實現發(fā)送彩信的方法,涉及Android源碼中的mms的使用技巧,需要的朋友可以參考下2016-01-01Android?Jetpack結構運用Compose實現微博長按點贊彩虹效果
Compose在動畫方面下足了功夫,提供了豐富的API。但也正由于API種類繁多,如果想一氣兒學下來,最終可能會消化不良,導致似懂非懂。結合例子學習是一個不錯的方法,本文就帶大家邊學邊做,通過實現一個微博長按點贊的動畫效果,學習了解Compose動畫的常見思路和開發(fā)技巧2022-07-07