文本是《工具配置(共30篇)》专题的第 30 篇。阅读本文前,建议先阅读前面的文章:
- 1.沉浸式翻译插件深度解析:从基础配置到高级定制与跨平台应用
- 2.沉浸式翻译:智能双语翻译工具,提升阅读体验与翻译精准度
- 3.ChatBox 配置指南:多平台AI对话工具,支持API Key与本地模型配置
- 4.Continue 插件安装与配置指南:JetBrains IDE 的 AI 辅助利器
- 5.Cursor 安装与配置全攻略:AI 驱动的智能编程助手
- 6.CherryStudio:跨平台AI模型管理与对话工具安装与配置全攻略
- 7.Dify:开源低代码 AI 应用平台 | 一站式构建与部署
- 8.AingDesk | 开源跨平台 AI 桌面客户端 · Windows / macOS / Docker 一站式部署
- 9.VS Code 与 Cline 插件安装及 AI 对话扩展使用指南
- 10.Zed 轻量级现代代码编辑器:性能、协作与 AI 集成
- 11.DeepChat 免费桌面智能助手|多模型接入·多模态交互·隐私安全
- 12.Void AI编辑器完全指南:免费开源Cursor替代品安装配置教程 | AI编程工具
- 13.探索前沿AI对话:LibreChat部署的深度洞察与最佳实践
- 14.Sider 配置AI模型指南
- 15.Cursor AI代码编辑器完整使用指南 – 下载安装配置教程2025
- 16.Trae AI 安装与使用教程 | 最强 AI 编程助手配置指南
- 17.2025最新IntelliJ IDEA 安装与使用全指南:版本选择、插件配置与AI助手集成
- 18.Glarity浏览器插件完整指南:免费开源AI网页摘要与翻译助手
- 19.Claude Code CLI 安装与配置完整教程 | 支持 Windows 与 macOS 的 AI 编程助手
- 20.91协商写作平台
- 21.Claude-Python示例代码
- 22.OpenAI-image-Python示例代码
- 23.Gemini-Python示例代码
- 24.OpenAI-Java示例代码
- 25.Rerank-python代码配置
- 26.Python分析文件代码示例
- 27.Python配置openAI使用音视频图片对话
- 28.OpenAI-Java示例代码
- 29.Claude-Java示例代码
1. 资源准备
- API Key:此项配置填写在一步API官网创建API令牌,一键直达API令牌创建页面
- 创建API令牌步骤请参考API Key的获取和使用
- API Host:此项配置填写https://yibuapi.com/v1
- 查看支持的模型请参在这里复制模型在线查询
2. 安装依赖
pip install openai
3. 实现代码
import openai
# 这里填写您在https://yibuapi.com上创建的apikey
api_key = "sk-xxxxx"
# 这里填写https://yibuapi.com/v1
base_url = "https://yibuapi.com/v1"
# 音频文件路径
audio_file_path = "/Users/mufeng.yang/Desktop/test.m4a" # 请替换为您的音频文件路径
def transcribe_audio_with_whisper(audio_file_path, api_key, base_url):
"""
使用 Whisper-1 模型将音频转换为文本
"""
try:
client = openai.OpenAI(api_key=api_key, base_url=base_url)
# 打开音频文件
with open(audio_file_path, "rb") as audio_file:
# 调用 Whisper API 进行语音转文本
response = client.audio.transcriptions.create(
model="whisper-1",
file=audio_file,
language="zh", # 指定为中文,可选参数
response_format="text" # 返回格式:text, json, srt, verbose_json, vtt
)
return response
except FileNotFoundError:
return f"错误:找不到音频文件 {audio_file_path}"
except Exception as e:
return f"转录失败: {str(e)}"
def transcribe_audio_with_translation(audio_file_path, api_key, base_url):
"""
使用 Whisper-1 模型将音频转换为英文文本(翻译功能)
"""
try:
client = openai.OpenAI(api_key=api_key, base_url=base_url)
with open(audio_file_path, "rb") as audio_file:
# 使用翻译 API,将任何语言转换为英文
response = client.audio.translations.create(
model="whisper-1",
file=audio_file,
response_format="text"
)
return response
except FileNotFoundError:
return f"错误:找不到音频文件 {audio_file_path}"
except Exception as e:
return f"翻译失败: {str(e)}"
if __name__ == "__main__":
# 语音转文本(保持原语言)
print("正在进行语音转文本...")
transcription = transcribe_audio_with_whisper(audio_file_path, api_key, base_url)
print(f"转录结果: {transcription}\n")
# 语音转文本并翻译为英文(可选)
print("正在进行语音翻译为英文...")
translation = transcribe_audio_with_translation(audio_file_path, api_key, base_url)
print(f"翻译结果: {translation}\n")