文本是《工具配置(共23篇)》专题的第 21 篇。阅读本文前,建议先阅读前面的文章:
- 1.沉浸式翻译插件深度解析:从基础配置到高级定制与跨平台应用
- 2.沉浸式翻译:智能双语翻译工具,提升阅读体验与翻译精准度
- 3.ChatBox 配置指南:多平台AI对话工具,支持API Key与本地模型配置
- 4.Continue 插件安装与配置指南:JetBrains IDE 的 AI 辅助利器
- 5.Cursor 安装与配置全攻略:AI 驱动的智能编程助手
- 6.CherryStudio:跨平台AI模型管理与对话工具安装与配置全攻略
- 7.Dify:开源低代码 AI 应用平台 | 一站式构建与部署
- 8.AingDesk | 开源跨平台 AI 桌面客户端 · Windows / macOS / Docker 一站式部署
- 9.VS Code 与 Cline 插件安装及 AI 对话扩展使用指南
- 10.Zed 轻量级现代代码编辑器:性能、协作与 AI 集成
- 11.DeepChat 免费桌面智能助手|多模型接入·多模态交互·隐私安全
- 12.Void AI编辑器完全指南:免费开源Cursor替代品安装配置教程 | AI编程工具
- 13.探索前沿AI对话:LibreChat部署的深度洞察与最佳实践
- 14.Sider 配置AI模型指南
- 15.Cursor AI代码编辑器完整使用指南 – 下载安装配置教程2025
- 16.Trae AI 安装与使用教程 | 最强 AI 编程助手配置指南
- 17.2025最新IntelliJ IDEA 安装与使用全指南:版本选择、插件配置与AI助手集成
- 18.Glarity浏览器插件完整指南:免费开源AI网页摘要与翻译助手
- 19.Claude Code CLI 安装与配置完整教程 | 支持 Windows 与 macOS 的 AI 编程助手
- 20.91协商写作平台
1. 资源准备
- API Key:此项配置填写在一步API官网创建API令牌,一键直达API令牌创建页面
- 创建API令牌步骤请参考API Key的获取和使用
- API Host:此项配置填写https://yibuapi.com/v1
- 查看支持的模型请参考这篇教程模型在线查询
2. pom依赖
pip install anthropic
3. 实现代码(非流式)
import anthropic
# 这里填写您在https://yibuapi.com上创建的apikey
api_key = "sk-xxxx"
# 这里填写https://yibuapi.com
base_url = "https://yibuapi.com"
# 这是问题
questions = f"""
生成三个虚构的中文书名及其作者和类型的清单。
使用以下键以 JSON 格式提供它们:book_id, title, author, genre.
"""
def get_claude_response(question, api_key, base_url):
try:
client = anthropic.Anthropic(
api_key=api_key,
base_url=base_url
)
response = client.messages.create(
model="claude-3-7-sonnet-latest", # 最新版模型ID
max_tokens=1000,
temperature=0.7,
system="你是一个专业的图书管理员",
messages=[
{"role": "user", "content": question}
]
)
return response.content[0].text
except Exception as e:
return f"请求失败: {str(e)}"
if __name__ == "__main__":
response = get_claude_response(questions, api_key, base_url)
print(f"回答: {response}\n")
4. 实现代码(流式)
import anthropic
# 这里填写您在https://yibuapi.com上创建的apikey
api_key = ""
# 这里填写https://yibuapi.com
base_url = "https://yibuapi.com"
# 这是问题
questions = f"""
生成三个虚构的中文书名及其作者和类型的清单。
使用以下键以 JSON 格式提供它们:book_id, title, author, genre.
"""
def get_claude_streaming_response(question, api_key, base_url):
try:
client = anthropic.Anthropic(
api_key=api_key,
base_url=base_url
)
# 创建流式消息请求
with client.messages.stream(
model="claude-3-7-sonnet-latest", # 最新版模型ID
max_tokens=1000,
temperature=0.7,
system="你是一个专业的图书管理员",
messages=[
{"role": "user", "content": question}
]
) as stream:
# 打印流式响应的开始提示
print("开始接收流式响应...\n")
# 用于累积完整响应的变量
full_response = ""
# 处理流式响应
for text in stream.text_stream:
print(text, end="", flush=True) # 实时打印每个文本块
full_response += text
# 流结束后打印分隔线
print("\n\n" + "-" * 50)
return full_response
except Exception as e:
return f"请求失败: {str(e)}"
if __name__ == "__main__":
response = get_claude_streaming_response(questions, api_key, base_url)
print(f"\n完整回答: {response}\n")
5. 运行效果
您已阅读完《工具配置(共23篇)》专题的第 21 篇。请继续阅读该专题下面的文章: