AudioContext:createMediaStreamSource() 方法

Baseline 已广泛支持

此特性已得到良好支持,可在多种设备和浏览器版本上使用。自 2021 年 4 月起,所有浏览器均已支持此特性。

AudioContext 接口的 createMediaStreamSource() 方法用于创建一个新的 MediaStreamAudioSourceNode 对象,它接收一个媒体流(例如,来自 MediaDevices.getUserMedia 的实例),该媒体流的音频随后可以被播放和操作。

有关媒体流音频源节点(MediaStreamAudioSourceNode)的更多详细信息,请参阅 MediaStreamAudioSourceNode 参考页面。

语法

js
createMediaStreamSource(stream)

参数

stream

一个 MediaStream,用作音频源,将被馈送到音频处理图中以供使用和操作。

返回值

一个新创建的 MediaStreamAudioSourceNode 对象,表示音频节点,其媒体是从指定的源流中获取的。

示例

在此示例中,我们从 navigator.getUserMedia 获取媒体(音频+视频)流,将媒体馈送到 <video> 元素进行播放然后静音,但同时也将音频馈送到 MediaStreamAudioSourceNode。接下来,我们将此源音频馈送到一个低通 BiquadFilterNode(它有效地充当低音增强器),然后再馈送到 AudioDestinationNode

<video> 元素下方的滑块控制着低通滤波器的增益量——增加滑块的值可以使音频听起来更具低音感!

注意: 您可以 在线查看此示例,或 查看源代码

js
const pre = document.querySelector("pre");
const video = document.querySelector("video");
const myScript = document.querySelector("script");
const range = document.querySelector("input");

// getUserMedia block - grab stream
// put it into a MediaStreamAudioSourceNode
// also output the visuals into a video element

if (navigator.mediaDevices) {
  console.log("getUserMedia supported.");
  navigator.mediaDevices
    .getUserMedia({ audio: true, video: true })
    .then((stream) => {
      video.srcObject = stream;
      video.onloadedmetadata = (e) => {
        video.play();
        video.muted = true;
      };

      // Create a MediaStreamAudioSourceNode
      // Feed the HTMLMediaElement into it
      const audioCtx = new AudioContext();
      const source = audioCtx.createMediaStreamSource(stream);

      // Create a biquad filter
      const biquadFilter = audioCtx.createBiquadFilter();
      biquadFilter.type = "lowshelf";
      biquadFilter.frequency.value = 1000;
      biquadFilter.gain.value = range.value;

      // connect the AudioBufferSourceNode to the gainNode
      // and the gainNode to the destination, so we can play the
      // music and adjust the volume using the mouse cursor
      source.connect(biquadFilter);
      biquadFilter.connect(audioCtx.destination);

      // Get new mouse pointer coordinates when mouse is moved
      // then set new gain value

      range.oninput = () => {
        biquadFilter.gain.value = range.value;
      };
    })
    .catch((err) => {
      console.log(`The following gUM error occurred: ${err}`);
    });
} else {
  console.log("getUserMedia not supported on your browser!");
}

// dump script to pre element

pre.textContent = myScript.textContent;

注意: 调用 createMediaStreamSource() 的后果是,媒体流的音频播放将被重新路由到 AudioContext 的处理图中。因此,播放/暂停流仍然可以通过媒体元素 API 和播放器控件来完成。

规范

规范
Web Audio API
# dom-audiocontext-createmediastreamsource

浏览器兼容性

另见