Skip to content

在线体验

RealmRouter 在线体验平台提供了一个无需编程即可直接体验 AI 模型能力的交互式环境。您可以通过简单的界面操作,快速测试不同模型的效果,了解其能力和特点。

功能特点

即开即用

  • 无需注册:部分基础功能可直接体验
  • 无需编程:通过图形界面直接交互
  • 实时响应:即时查看模型输出结果
  • 多模型支持:支持多种模型类型切换

交互体验

  • 对话模式:模拟真实对话场景
  • 参数调节:实时调整模型参数
  • 结果对比:对比不同模型的输出
  • 历史记录:保存和管理对话历史

学习辅助

  • 使用提示:提供使用建议和技巧
  • 参数说明:详细解释各参数作用
  • 最佳实践:分享使用经验和案例
  • 性能指标:显示响应时间和 Token 消耗

访问方式

1. 直接访问

前往 RealmRouter 在线体验平台 直接开始体验。

2. 通过控制台

  1. 登录 RealmRouter 控制台
  2. 点击左侧导航栏的"在线体验"
  3. 选择要体验的模型类型

3. API 集成体验

如果您已有 API 密钥,也可以通过 API 调用体验:

bash
curl -X POST "https://realmrouter.cn/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-3.5-turbo",
    "messages": [
      {"role": "user", "content": "你好!"}
    ],
    "stream": true
  }'

界面介绍

主要区域

1. 模型选择区

  • 模型列表:显示所有可用的模型
  • 模型分类:按类型分组显示
  • 模型信息:显示模型详细信息和性能指标
  • 快速切换:支持快速切换不同模型

2. 参数配置区

  • 基础参数

    • Temperature:控制输出的随机性(0-2)
    • Max Tokens:限制最大输出长度
    • Top P:核采样参数(0-1)
    • Frequency Penalty:频率惩罚(-2 到 2)
    • Presence Penalty:存在惩罚(-2 到 2)
  • 高级参数

    • Stop Sequences:停止序列
    • Stream:是否启用流式输出
    • Logit Bias:Logit 偏置
    • User:用户标识

3. 对话交互区

  • 对话历史:显示完整的对话记录
  • 输入框:输入用户消息
  • 发送按钮:发送消息到模型
  • 清空按钮:清空对话历史

4. 结果展示区

  • 模型输出:显示模型的回复内容
  • 使用统计:显示 Token 使用量和费用
  • 响应时间:显示响应耗时
  • 复制按钮:一键复制输出内容

辅助功能

1. 预设模板

提供常用的对话模板:

  • 角色扮演:让模型扮演特定角色
  • 内容创作:帮助创作各种内容
  • 代码生成:生成和优化代码
  • 问答助手:回答各类问题
  • 翻译服务:多语言翻译

2. 示例提示

为不同场景提供示例提示:

  • 商务写作:邮件、报告、方案等
  • 学术研究:论文、摘要、综述等
  • 创意写作:故事、诗歌、剧本等
  • 技术文档:说明、教程、手册等

3. 性能监控

实时显示性能指标:

  • 响应时间:当前请求的响应时间
  • Token 速度:每秒生成的 Token 数
  • 成功率:请求成功的百分比
  • 错误信息:详细的错误描述

使用指南

基础使用流程

1. 选择模型

  1. 在模型选择区浏览可用模型
  2. 点击模型名称查看详细信息
  3. 根据需求选择合适的模型
  4. 确认模型的计费标准和使用限制

2. 配置参数

  1. 调整 Temperature 控制输出随机性
  2. 设置 Max Tokens 限制输出长度
  3. 根据需要调整其他参数
  4. 查看参数说明了解其作用

3. 开始对话

  1. 在输入框中输入您的消息
  2. 点击发送按钮或按 Enter 发送
  3. 等待模型响应
  4. 查看输出结果和使用统计

4. 优化体验

  1. 根据输出效果调整参数
  2. 尝试不同的表达方式
  3. 使用预设模板快速开始
  4. 保存满意的对话结果

高级功能

1. 多模型对比

  1. 打开多个对话窗口
  2. 选择不同的模型
  3. 输入相同的问题
  4. 对比不同模型的输出

2. 参数调优

  1. 固定输入内容
  2. 逐步调整单个参数
  3. 观察输出变化
  4. 找到最佳参数组合

3. 流式输出

  1. 启用 Stream 参数
  2. 观察实时输出过程
  3. 体验更快的响应感知
  4. 适合长文本生成场景

4. 历史管理

  1. 查看历史对话记录
  2. 恢复之前的对话
  3. 导出对话内容
  4. 分享优秀案例

最佳实践

参数设置建议

创意写作

json
{
  "temperature": 0.8,
  "max_tokens": 1000,
  "top_p": 0.9,
  "frequency_penalty": 0.5,
  "presence_penalty": 0.3
}

事实问答

json
{
  "temperature": 0.1,
  "max_tokens": 500,
  "top_p": 0.5,
  "frequency_penalty": 0,
  "presence_penalty": 0
}

代码生成

json
{
  "temperature": 0.2,
  "max_tokens": 2000,
  "top_p": 0.7,
  "frequency_penalty": 0.1,
  "presence_penalty": 0.1
}

翻译服务

json
{
  "temperature": 0.3,
  "max_tokens": 1500,
  "top_p": 0.6,
  "frequency_penalty": 0.2,
  "presence_penalty": 0
}

提示词优化

明确任务

好的提示:
"请帮我写一封商务邮件,内容是关于项目进度汇报,收件人是张经理"

不好的提示:
"写个邮件"

提供上下文

好的提示:
"我是一名前端开发工程师,需要学习 React 框架。请为我制定一个为期一周的学习计划,包括每天的学习内容和实践项目"

不好的提示:
"怎么学 React"

指定格式

好的提示:
"请以表格形式对比 Python 和 JavaScript 的优缺点,包括性能、易用性、生态系统等方面"

不好的提示:
"对比 Python 和 JavaScript"

设定角色

好的提示:
"你是一位有 10 年经验的财务分析师,请分析这份财务报表中的风险点并提出建议"

不好的提示:
"分析这个财务报表"

常见问题

Q: 为什么有时候模型响应很慢?

A: 可能的原因:

  • 模型负载较高
  • 网络连接不稳定
  • 请求参数设置不当
  • 输出内容过长

Q: 如何提高输出质量?

A: 建议:

  • 优化提示词表达
  • 调整模型参数
  • 提供更多上下文
  • 明确输出要求

Q: 支持哪些文件格式?

A: 在线体验平台主要支持文本输入,部分模型支持:

  • 纯文本(.txt)
  • 代码文件(.py, .js, .java 等)
  • Markdown(.md)
  • JSON(.json)

Q: 如何保存对话记录?

A: 方法:

  • 登录账户后自动保存
  • 手动导出为文本文件
  • 复制到剪贴板
  • 截图保存

技术支持

使用帮助

  • 在线帮助:点击界面上的帮助按钮
  • 视频教程:观看使用教程视频
  • 使用指南:查看详细的使用文档
  • FAQ:浏览常见问题解答

问题反馈

  • 意见反馈:通过平台提交反馈
  • 技术支持:联系技术支持团队
  • 社区讨论:加入用户社区交流
  • 工单系统:提交技术支持工单

体验建议

  1. 先从简单的对话开始,熟悉界面操作
  2. 尝试不同的模型,了解各自特点
  3. 调整参数观察输出变化
  4. 使用预设模板快速上手
  5. 保存优秀的对话案例供参考

基于 MIT 许可发布 厦门界云聚算网络科技有限公司