音频api是什么意思

  音频api是特殊的应用程序编程接口。在计算机系统中,如果需要输出音频,就要用特定的方法去驱动Codec、DAC等音频芯片。在调动音频芯片的过程中,需要用到一些特殊的应用程序编程接口,也就是音频API。
iPhone 13 pro、IOS15.5、


  品牌型号:iPhone 13 pro
系统:IOS15.5

  音频api是特殊的应用程序编程接口。在计算机系统中,如果需要输出音频,就要用特定的方法去驱动Codec、DAC等音频芯片。在调动音频芯片的过程中,需要用到一些特殊的应用程序编程接口,也就是音频API。

  使用音频API,音频软件如播放器等就可以直接针对API设计输出程序,而不必针对不同的芯片使用不同的指令。常见的音频API有MME、DS、WDM、KS、WASAPI、ASIO等。

  以MME为例,MME是最常见的Windows音频API,全称为MutiMedia Extensions,即多媒体扩展技术。它历史悠久,兼容性好,市面上基本所有设备都能良好支持。它属于高级的API,并不直接和硬件交流,需要通过层层接口才能访问音频硬件,这也为它带来了高延迟。虽说这种延迟在回放音频的时候并不会造成音质的劣化,但对音频的处理和却有着较大的负面影响。

  MME使用waveIn/waveOut系列API来完成对音频的处理。程序启动后用waveIn系列函数打开声卡输入功能,同时将缓冲区设定到足够小的值,然后开始将音频数据到设定的缓冲区,当缓冲区满后再将缓冲区(WAVHDR)直接加入到waveOu系列函数的输出队列中即可。此方法实现较简单,缺点是MME为高级API,因此在整个过程中需要走过很多系统处理阶段,导致延迟较大。若缓冲区太小会导致声音断断续续。一般最小延迟可到120毫秒左右。


版权声明:本文内容转载自网络,该文观点仅代表作者本人。登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系本站举报,一经查实,本站将立刻删除。