文本是《工具配置(共23篇)》专题的第 20 篇。阅读本文前,建议先阅读前面的文章:
- 1.沉浸式翻译插件深度解析:从基础配置到高级定制与跨平台应用
- 2.沉浸式翻译:智能双语翻译工具,提升阅读体验与翻译精准度
- 3.ChatBox 配置指南:多平台AI对话工具,支持API Key与本地模型配置
- 4.Continue 插件安装与配置指南:JetBrains IDE 的 AI 辅助利器
- 5.Cursor 安装与配置全攻略:AI 驱动的智能编程助手
- 6.CherryStudio:跨平台AI模型管理与对话工具安装与配置全攻略
- 7.Dify:开源低代码 AI 应用平台 | 一站式构建与部署
- 8.AingDesk | 开源跨平台 AI 桌面客户端 · Windows / macOS / Docker 一站式部署
- 9.VS Code 与 Cline 插件安装及 AI 对话扩展使用指南
- 10.Zed 轻量级现代代码编辑器:性能、协作与 AI 集成
- 11.DeepChat 免费桌面智能助手|多模型接入·多模态交互·隐私安全
- 12.Void AI编辑器完全指南:免费开源Cursor替代品安装配置教程 | AI编程工具
- 13.探索前沿AI对话:LibreChat部署的深度洞察与最佳实践
- 14.Sider 配置AI模型指南
- 15.Cursor AI代码编辑器完整使用指南 – 下载安装配置教程2025
- 16.Trae AI 安装与使用教程 | 最强 AI 编程助手配置指南
- 17.2025最新IntelliJ IDEA 安装与使用全指南:版本选择、插件配置与AI助手集成
- 18.Glarity浏览器插件完整指南:免费开源AI网页摘要与翻译助手
- 19.Claude Code CLI 安装与配置完整教程 | 支持 Windows 与 macOS 的 AI 编程助手
协商(91写作) 是一款集智能创作、AI协同和个性化定制于一体的智能写作平台,致力于帮助用户在内容创作中实现效率最大化与表达精准化。平台支持 OpenAI 协议标准,用户可接入自定义模型,打通私有化部署能力,适用于从内容生成、营销文案到学术写作等多种场景。
核心特色
- ✨ 支持自定义 API 模型接入:兼容 Claude、GLM、LLaMA、Mistral 等各类大模型
- 🚀 多模型快速切换:自由选择或命名你自己的模型
- 🔒 私有部署安全可靠:自定义密钥与 API 地址,不依赖公有云
- 📄 写作模板丰富:内置营销、报告、论文等模板,提升内容质量
- 👥 团队协作能力:支持多角色、多账号管理协作写作流程
1.使用场景
- ✅ 企业内部知识管理与文档写作
- ✅ 教育机构定制化教学内容生成
- ✅ 研究人员本地模型调用进行学术写作
- ✅ 内容工作者整合私有API进行创作
- ✅ 政务单位私有化部署安全输出政策文案
2. 资源准备
- 91写作地址:91写作链接地址
- API Key:此项配置填写在一步API官网创建API令牌,一键直达API令牌创建页面
- 创建API令牌步骤请参考API Key的获取和使用
- API Host:此项配置填写https://yibuapi.com/v1
- 查看支持的模型请参考这篇教程模型在线查询
3. 下载与安装
环境:网页版
为了让高级用户能够更灵活地接入自己的大模型服务,91写作平台支持自定义 API 和模型名称的配置。本文将以配置 Claude-sonnet
模型为例,手把手教你如何完成自定义 API 的设置。
第一步:进入 API 配置界面
- 登录你的 91写作账号。
- 在右上角点击橙色的「🔧API配置」按钮。
- 弹出窗口后,点击上方的「自定义API配置」标签页。
第二步:填写 API 参数信息
在自定义配置页面中,依次填写以下信息:
-
API密钥
填写你从相关服务商处生成的 API 密钥,用于身份认证。 -
API地址
填写你的 API 接口地址,例如:
https://ylbuapi.com/v1
-
模型选择
在模型选择下拉框中,选择已有模型名,或输入一个新的模型名(例如claude-sonnet-4-20250514
),然后点击【添加】按钮。 -
确认模型已添加
添加后,模型名称会显示在下方的蓝色标签中,表示添加成功。
第三步:测试连接并保存配置
- 点击下方的【测试连接】按钮,系统会尝试连接你所填写的 API 和模型。
- 如果提示“✅自定义配置连接测试成功”,说明配置无误。
- 最后点击【保存配置】,完成设置。
附:参数说明
- API地址:你的大模型 API 服务地址。
- API密钥:用于验证身份。
- 模型选择:支持自定义模型名。
- Token限制:最大单次生成 Token 数。
- 创作速度:速度调节(0 表示保守生成,1 表示快速生成)。
特别说明
- 支持
openai
协议的模型(如 Claude、glm、llama 等)。 - 支持部署在本地或其他平台的大模型服务,只要符合 OpenAI 接口规范即可接入。
- 推荐使用官方文档中提到的
API 配置教程
和本地部署大模型配置教程
(详见弹窗左下角链接)。
常见使用方法(FAQ)
Q1:是否支持多个模型名称?
A:是的,可以同时配置多个模型,只需依次添加不同的模型名称即可。
Q2:我的 API 是内网地址,可以使用吗?
A:可以,只要你的服务器与 91写作平台网络可达即可访问。
Q3:测试连接失败怎么办?
A:请检查 API 地址是否正确、密钥是否有效,服务器是否允许外部访问。
Q4:可以接入非 OpenAI 协议的模型吗?
A:目前仅支持兼容 OpenAI 接口的模型服务。
Q5:Token 数怎么设置最合适?
A:一般建议设置在 2048~4096 之间,具体视模型支持和输出长度而定。
📌 提示:推荐结合你自己的大模型资源、负载均衡策略进行灵活配置,以提升生成效率和内容质量。
您已阅读完《工具配置(共23篇)》专题的第 20 篇。请继续阅读该专题下面的文章: