大语言模型
大语言模型(Large Language Model,LLM)是当前最先进的 AI 技术之一,能够理解和生成人类语言,执行各种自然语言处理任务。RealmRouter 平台提供了多种主流大语言模型的 API 服务,满足不同场景的应用需求。
模型概览
GPT 系列
- GPT-3.5-turbo:高性能对话模型,性价比高
- GPT-4:最强大的通用模型,推理能力出色
- GPT-4-turbo:GPT-4 的优化版本,速度更快
Claude 系列
- Claude-3-sonnet:平衡性能和成本的中端模型
- Claude-3-opus:最高性能的 Claude 模型
- Claude-3-haiku:快速响应的轻量级模型
国产模型
- 文心一言:百度开发,中文优化
- 通义千问:阿里巴巴开发,多语言支持
- 智谱 GLM:清华开发,学术研究导向
- 月之暗面:Kimi 开发,长文本处理
开源模型
- Llama-2:Meta 开发,开源可商用
- Mistral:欧洲开发,性能优异
- Qwen:阿里巴巴开源,中英双语
- DeepSeek:深度求索开发,代码能力强
核心能力
文本理解
- 语义理解:深入理解文本含义和上下文
- 情感分析:识别文本中的情感倾向
- 意图识别:判断用户的真实意图
- 实体抽取:提取文本中的关键信息
文本生成
- 对话生成:自然流畅的对话交流
- 内容创作:文章、故事、诗歌等创作
- 摘要生成:长文本的简洁摘要
- 翻译服务:多语言互译
推理能力
- 逻辑推理:数学、逻辑问题求解
- 因果分析:分析事物间的因果关系
- 决策支持:基于信息提供决策建议
- 问题解决:复杂问题的分析和解决
知识应用
- 问答服务:基于知识的问答
- 知识检索:从大量信息中检索相关内容
- 知识整合:整合多源信息
- 知识推理:基于知识进行推理
API 接口
基础调用
python
import requests
def chat_with_llm(model, message, api_key):
url = "https://realmrouter.cn/v1/chat/completions"
headers = {
"Authorization": f"Bearer {api_key}",
"Content-Type": "application/json"
}
data = {
"model": model,
"messages": [
{"role": "user", "content": message}
],
"max_tokens": 1000,
"temperature": 0.7
}
response = requests.post(url, headers=headers, json=data)
return response.json()
# 使用示例
result = chat_with_llm("gpt-3.5-turbo", "你好!", "your_api_key")
print(result['choices'][0]['message']['content'])流式调用
python
import requests
def stream_chat(model, message, api_key):
url = "https://realmrouter.cn/v1/chat/completions"
headers = {
"Authorization": f"Bearer {api_key}",
"Content-Type": "application/json"
}
data = {
"model": model,
"messages": [
{"role": "user", "content": message}
],
"stream": True,
"max_tokens": 1000,
"temperature": 0.7
}
response = requests.post(url, headers=headers, json=data, stream=True)
for line in response.iter_lines():
if line:
line = line.decode('utf-8')
if line.startswith('data: '):
data = line[6:]
if data != '[DONE]':
import json
chunk = json.loads(data)
if 'choices' in chunk and len(chunk['choices']) > 0:
delta = chunk['choices'][0].get('delta', {})
if 'content' in delta:
print(delta['content'], end='', flush=True)
# 使用示例
stream_chat("gpt-3.5-turbo", "请介绍一下人工智能的发展历史", "your_api_key")多轮对话
python
def multi_turn_chat(model, api_key):
url = "https://realmrouter.cn/v1/chat/completions"
headers = {
"Authorization": f"Bearer {api_key}",
"Content-Type": "application/json"
}
conversation = []
while True:
user_input = input("用户: ")
if user_input.lower() in ['quit', 'exit', '退出']:
break
conversation.append({"role": "user", "content": user_input})
data = {
"model": model,
"messages": conversation,
"max_tokens": 1000,
"temperature": 0.7
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
assistant_reply = result['choices'][0]['message']['content']
print(f"助手: {assistant_reply}")
conversation.append({"role": "assistant", "content": assistant_reply})
# 使用示例
multi_turn_chat("gpt-3.5-turbo", "your_api_key")参数说明
基础参数
| 参数 | 类型 | 必需 | 说明 | 示例值 |
|---|---|---|---|---|
| model | string | 是 | 模型名称 | "gpt-3.5-turbo" |
| messages | array | 是 | 对话消息列表 | [{"role": "user", "content": "你好"}] |
| max_tokens | integer | 否 | 最大输出 Token 数 | 1000 |
| temperature | number | 否 | 输出随机性 (0-2) | 0.7 |
| top_p | number | 否 | 核采样参数 (0-1) | 0.9 |
| stream | boolean | 否 | 是否流式输出 | false |
高级参数
| 参数 | 类型 | 必需 | 说明 | 示例值 |
|---|---|---|---|---|
| stop | string/array | 否 | 停止序列 | ["\n", " |