BaseAudioContext:createScriptProcessor() 方法

已弃用:此功能不再推荐使用。虽然一些浏览器可能仍然支持它,但它可能已经从相关的 Web 标准中删除,可能正在被删除,或者可能仅出于兼容性目的而保留。避免使用它,并尽可能更新现有代码;请查看此页面底部的兼容性表,以指导您的决策。请注意,此功能可能随时停止工作。

BaseAudioContext 接口的createScriptProcessor() 方法创建一个用于直接音频处理的ScriptProcessorNode

注意:此功能已被AudioWorkletsAudioWorkletNode 接口取代。

语法

js
createScriptProcessor(bufferSize, numberOfInputChannels, numberOfOutputChannels)

参数

bufferSize

以样本帧为单位的缓冲区大小。如果指定,bufferSize 必须是以下值之一:256、512、1024、2048、4096、8192、16384。如果它未传入,或如果值为 0,则实现将为给定环境选择最佳缓冲区大小,这将在节点的生命周期中始终为 2 的幂。

此值控制audioprocess 事件的派发频率以及每次调用需要处理多少样本帧。bufferSize 的较低值将导致较低(更好)的延迟。为了避免音频中断和故障,需要更高的值。建议作者不要指定此缓冲区大小,并允许实现选择一个好的缓冲区大小,以在延迟和音频质量之间取得平衡。

numberOfInputChannels

指定此节点输入通道数量的整数,默认为 2。支持高达 32 个值。

numberOfOutputChannels

指定此节点输出通道数量的整数,默认为 2。支持高达 32 个值。

警告:Webkit 目前(版本 31)要求在调用此方法时传递有效的bufferSize

注意:numberOfInputChannelsnumberOfOutputChannels 都为零是无效的。

返回值

示例

使用脚本处理器添加白噪声

以下示例展示了如何使用ScriptProcessorNode 获取通过AudioContext.decodeAudioData() 加载的轨道,对其进行处理,在输入轨道的每个音频样本中添加少量白噪声,并通过AudioDestinationNode 播放。

对于每个通道和每个样本帧,脚本节点的audioprocess 事件处理程序使用关联的audioProcessingEvent 循环遍历输入缓冲区的每个通道以及每个通道中的每个样本,并添加少量白噪声,然后将该结果设置为每个情况下的输出样本。

注意:您可以在线运行完整示例,或查看源代码

js
const myScript = document.querySelector("script");
const myPre = document.querySelector("pre");
const playButton = document.querySelector("button");

// Create AudioContext and buffer source
let audioCtx;

async function init() {
  audioCtx = new AudioContext();
  const source = audioCtx.createBufferSource();

  // Create a ScriptProcessorNode with a bufferSize of 4096 and
  // a single input and output channel
  const scriptNode = audioCtx.createScriptProcessor(4096, 1, 1);

  // Load in an audio track using fetch() and decodeAudioData()
  try {
    const response = await fetch("viper.ogg");
    const arrayBuffer = await response.arrayBuffer();
    source.buffer = await audioCtx.decodeAudioData(arrayBuffer);
  } catch (err) {
    console.error(
      `Unable to fetch the audio file: ${name} Error: ${err.message}`,
    );
  }

  // Give the node a function to process audio events
  scriptNode.addEventListener("audioprocess", (audioProcessingEvent) => {
    // The input buffer is the song we loaded earlier
    let inputBuffer = audioProcessingEvent.inputBuffer;

    // The output buffer contains the samples that will be modified and played
    let outputBuffer = audioProcessingEvent.outputBuffer;

    // Loop through the output channels (in this case there is only one)
    for (let channel = 0; channel < outputBuffer.numberOfChannels; channel++) {
      let inputData = inputBuffer.getChannelData(channel);
      let outputData = outputBuffer.getChannelData(channel);

      // Loop through the 4096 samples
      for (let sample = 0; sample < inputBuffer.length; sample++) {
        // make output equal to the same as the input
        outputData[sample] = inputData[sample];

        // add noise to each output sample
        outputData[sample] += (Math.random() * 2 - 1) * 0.1;
      }
    }
  });

  source.connect(scriptNode);
  scriptNode.connect(audioCtx.destination);
  source.start();

  // When the buffer source stops playing, disconnect everything
  source.addEventListener("ended", () => {
    source.disconnect(scriptNode);
    scriptNode.disconnect(audioCtx.destination);
  });
}

// wire up play button
playButton.addEventListener("click", () => {
  if (!audioCtx) {
    init();
  }
});

规范

自从 2014 年 8 月 29 日Web 音频 API 规范 发布以来,此功能已被弃用。它不再有望成为标准。

它已被AudioWorkletsAudioWorkletNode 接口取代。

浏览器兼容性

BCD 表格仅在浏览器中加载

另请参阅