Whisper JAX:最快的 Whisper API ⚡️

的优化实现 Whisper 模型 Whisper JAX 是OpenAI 对 。 它在 JAX 上运行,后端有 TPU v4-8。 与 A100 GPU 上的 PyTorch 相比,它的 速度快了 70 倍 以上,使其成为可用的最快的 Whisper API。

请注意,在高峰时段,您可能会发现自己正在排队观看此演示。 当您提交请求时,您的队列位置将显示在演示窗格的右上角。 一旦您到达队列的前面,您的音频文件将被转录,并通过进度条显示进度。

要跳过队列,您可能希望创建自己的推理端点,其详细信息可以在 Whisper JAX 存储库 中找到。

相关导航