亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

一文詳解Web Audio瀏覽器采集麥克風(fēng)音頻數(shù)據(jù)

 更新時(shí)間:2023年03月09日 11:37:19   作者:前端zuker  
這篇文章主要為大家介紹Web Audio瀏覽器采集麥克風(fēng)音頻數(shù)據(jù)實(shí)現(xiàn)詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

背景

關(guān)于Web Audio,上一篇小編介紹了下,如何通過(guò)解析音頻數(shù)據(jù),繪制音頻的頻譜圖,和大家一起初步學(xué)習(xí)領(lǐng)會(huì)了一下Web Audio的強(qiáng)大Api。此篇,小編繼續(xù)探究Web Audio領(lǐng)域,給大家介紹下如何在瀏覽器中進(jìn)行麥克風(fēng)音頻數(shù)據(jù)的采集。以及如何在采集過(guò)程中繪制實(shí)時(shí)的動(dòng)態(tài)音頻圖譜。

實(shí)現(xiàn)思路

我們?nèi)匀幌冉榻B整體思路。采集音頻,首先我們通過(guò)navigator.mediaDevices.getUserMedia方法來(lái)獲取麥克風(fēng)并錄制聲音。(navigator是瀏覽器NavigatorID標(biāo)準(zhǔn)接口的一種實(shí)現(xiàn),可以用它來(lái)查詢一些關(guān)于運(yùn)行當(dāng)前腳本的應(yīng)用程序的相關(guān)信息。這里我們不多討論這個(gè)對(duì)象,只介紹如何借助它錄制音頻)getUserMedia錄制聲音可以獲取到音頻流。然后我們通過(guò)Web Audio相關(guān)Api將音頻流轉(zhuǎn)化出實(shí)時(shí)的音頻數(shù)據(jù)。最后通過(guò)canvas將實(shí)時(shí)的音頻數(shù)據(jù)繪制成圖譜,通過(guò)反復(fù)這個(gè)過(guò)程,實(shí)現(xiàn)動(dòng)態(tài)繪制實(shí)時(shí)圖譜的效果。整體的流程,如下圖:

獲取麥克風(fēng)權(quán)限,錄制聲音

瀏覽器的安全策略規(guī)定,navigator.mediaDevices.getUserMedia方法只能在https協(xié)議或者localhost域名下才有效。所以這里我們先用node搭建一個(gè)極簡(jiǎn)版的本地web服務(wù)器,再獲取麥克風(fēng)權(quán)限和錄制聲音。

// server.js
const http = require('http');
const path = require('path');
const fs = require('fs');
http.createServer((request, response) => {
  // 請(qǐng)求體
  console.log(new Date(), ':', JSON.stringify(request));
  // 需要加載的html文件
  const file = path.resolve(__dirname, './demo2.html');
  // 判斷文件是否存在
  fs.exists(file, exists => {
    if(!exists) console.log ('文件不存在,沙雕!');
    else {
      response.writeHeader(200, { "Content-Type" : "text/html" });
      response.end(fs.readFileSync(file, 'utf-8'));
    }
  });
}).listen(8090); // 監(jiān)聽(tīng)8090端口
/*
 * demo2.html
 * 獲取麥克風(fēng)并錄制聲音
 */
let audioCtx = null; // 音頻上下文
let source = null; // 音頻源
let audioStream = null; // 錄音產(chǎn)生的音頻流
let analyserNode = null; // 用于分析音頻實(shí)時(shí)數(shù)據(jù)的節(jié)點(diǎn)
let animationFrame = null; // 定時(shí)器
function recordSound () {
  navigator.mediaDevices
    .getUserMedia({ 'audio': true })
    .then(initAudioData)
    .catch(e => {
      console.log('出問(wèn)題了,沙雕:', e);
    });
}
// 停止錄制
function stopRecord () {
  // 關(guān)閉麥克風(fēng)
  const tracks = audioStream.getAudioTracks();
  for (let i = 0, len = tracks.length; i < len; i++) {
    tracks[i].stop();
  }
  // 斷開(kāi)音頻節(jié)點(diǎn)
  analyserNode.disconnect();
  source.disconnect();
  analyserNode = null;
  source = null;
  // 清除定時(shí)器
  clearInterval(animationFrame);
}
// 事件綁定
document.querySelector('#record').onclick = recordSound;
document.querySelector('#stop').onclick = stopRecord;

利用Web Audio Api 處理音頻流數(shù)據(jù)

獲取到音頻流之后,我們通過(guò)音頻上下文AudioContext,創(chuàng)建音頻源。這里選擇MediaStreamAudioSourceNode,它接收一個(gè)MediaStream對(duì)象來(lái)創(chuàng)建音頻源。 然后我們?cè)谝纛l源和destination中間插入一個(gè)音頻節(jié)點(diǎn),用來(lái)獲取及處理音頻數(shù)據(jù),進(jìn)而利用數(shù)據(jù)繪制出波形圖。這里選擇AnalyserNode,當(dāng)然像ScriptProcessorNode和AudioWorkletNode節(jié)點(diǎn)也能夠?qū)崿F(xiàn)獲取和處理實(shí)時(shí)音頻數(shù)據(jù),具體可以參考相關(guān)Api。

// 音頻數(shù)據(jù)處理
function initAudioData (stream) {
  audioStream = stream;
  // 創(chuàng)建音頻上下文
  audioCtx = new (window.AudioContext || window.webkitAudioContext)();
  // 創(chuàng)建音頻源
  source = audioCtx.createMediaStreamSource(audioStream);
  // 創(chuàng)建音頻分析節(jié)點(diǎn)
  analyserNode = audioCtx.createAnalyser();
  // fftSize決定了能夠獲取到的音頻數(shù)據(jù)的數(shù)量
  analyserNode.fftSize = 4096;      
  // 音頻源連接至analyserNode
  source.connect(analyserNode);
  // analyserNode再連接至揚(yáng)聲器播放
  analyserNode.connect(audioCtx.destination);
  // 簡(jiǎn)單用定時(shí)器來(lái)繪制波形圖,當(dāng)然也可以用requestAnimationFrame來(lái)以屏幕刷新的評(píng)率來(lái)反復(fù)執(zhí)行繪制函數(shù)
  animateFrame = setInterval(drawWaver, 60);
}

實(shí)時(shí)獲取音頻數(shù)據(jù),繪制波形圖

AnalyserNode創(chuàng)建之后,你可以制定長(zhǎng)度,來(lái)實(shí)時(shí)獲取當(dāng)前時(shí)間點(diǎn)的音頻時(shí)域數(shù)據(jù),然后通過(guò)定時(shí)器或者requestAnimationFrame的回調(diào)來(lái)反復(fù)獲取數(shù)據(jù)、執(zhí)行繪制函數(shù)來(lái)達(dá)成動(dòng)態(tài)波形圖的效果。繪制方式,同樣是通過(guò)一個(gè)Float32Array數(shù)組對(duì)象來(lái)接收音頻時(shí)域數(shù)據(jù),(數(shù)值范圍在-1到1之間)然后對(duì)數(shù)據(jù)進(jìn)行采樣,這里我們每12條數(shù)據(jù),取一個(gè)最大值一個(gè)最小值來(lái)繪制圖形。

// 繪制圖形
function drawWaver () {
  const originData = new Float32Array(analyserNode.fftSize);
  const positives = [];
  const negatives = [];
  // 獲取當(dāng)前的實(shí)時(shí)音頻數(shù)據(jù)
  analyserNode.getFloatTimeDomainData(originData);
  // 每12位數(shù)據(jù)取一個(gè)最大值一個(gè)最小值 4096 / 12 = 341.3333
  for (let i = 0; i < 341; i++) {
    let temp = originData.slice(i * 12, (i + 1) * 12);
    positives.push(Math.max.apply(null, temp));
    negatives.push(Math.min.apply(null, temp));
  }
  // 創(chuàng)建canvas上下文
  let canvas = document.querySelector('#canvas');
  if (canvas.getContext) {
    let ctx = canvas.getContext('2d');
    canvas.width = positives.length * 4;
    let x = 0;
    let y = 100;
    ctx.fillStyle = '#fa541c';
    // canvas高度200,橫坐標(biāo)在canvas中點(diǎn)100px的位置,橫坐標(biāo)上方繪制正數(shù)據(jù),下方繪制負(fù)數(shù)據(jù)
    for (let k = 0; k < positives.length; k++) {
      // 每個(gè)矩形寬3px,間隔1px,圖形總長(zhǎng)度即為 length * 4
      ctx.fillRect(x + 4 * k, y - (100 * positives[k]), 3, 100 * positives[k]);
      ctx.fillRect(x + 4 * k, 100, 3, 100 * Math.abs(negatives[k]));
    }
  }
}

這樣,簡(jiǎn)單的音頻采集以及實(shí)時(shí)圖譜的繪制就完成了。最后,貼一下效果圖:

以上就是一文詳解Web Audio瀏覽器采集麥克風(fēng)音頻數(shù)據(jù)的詳細(xì)內(nèi)容,更多關(guān)于Web Audio采集音頻數(shù)據(jù)的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

最新評(píng)論