Skip to content

大语言模型

大语言模型(Large Language Model,LLM)是当前最先进的 AI 技术之一,能够理解和生成人类语言,执行各种自然语言处理任务。RealmRouter 平台提供了多种主流大语言模型的 API 服务,满足不同场景的应用需求。

模型概览

GPT 系列

  • GPT-3.5-turbo:高性能对话模型,性价比高
  • GPT-4:最强大的通用模型,推理能力出色
  • GPT-4-turbo:GPT-4 的优化版本,速度更快

Claude 系列

  • Claude-3-sonnet:平衡性能和成本的中端模型
  • Claude-3-opus:最高性能的 Claude 模型
  • Claude-3-haiku:快速响应的轻量级模型

国产模型

  • 文心一言:百度开发,中文优化
  • 通义千问:阿里巴巴开发,多语言支持
  • 智谱 GLM:清华开发,学术研究导向
  • 月之暗面:Kimi 开发,长文本处理

开源模型

  • Llama-2:Meta 开发,开源可商用
  • Mistral:欧洲开发,性能优异
  • Qwen:阿里巴巴开源,中英双语
  • DeepSeek:深度求索开发,代码能力强

核心能力

文本理解

  • 语义理解:深入理解文本含义和上下文
  • 情感分析:识别文本中的情感倾向
  • 意图识别:判断用户的真实意图
  • 实体抽取:提取文本中的关键信息

文本生成

  • 对话生成:自然流畅的对话交流
  • 内容创作:文章、故事、诗歌等创作
  • 摘要生成:长文本的简洁摘要
  • 翻译服务:多语言互译

推理能力

  • 逻辑推理:数学、逻辑问题求解
  • 因果分析:分析事物间的因果关系
  • 决策支持:基于信息提供决策建议
  • 问题解决:复杂问题的分析和解决

知识应用

  • 问答服务:基于知识的问答
  • 知识检索:从大量信息中检索相关内容
  • 知识整合:整合多源信息
  • 知识推理:基于知识进行推理

API 接口

基础调用

python
import requests

def chat_with_llm(model, message, api_key):
    url = "https://realmrouter.cn/v1/chat/completions"
    headers = {
        "Authorization": f"Bearer {api_key}",
        "Content-Type": "application/json"
    }
    
    data = {
        "model": model,
        "messages": [
            {"role": "user", "content": message}
        ],
        "max_tokens": 1000,
        "temperature": 0.7
    }
    
    response = requests.post(url, headers=headers, json=data)
    return response.json()

# 使用示例
result = chat_with_llm("gpt-3.5-turbo", "你好!", "your_api_key")
print(result['choices'][0]['message']['content'])

流式调用

python
import requests

def stream_chat(model, message, api_key):
    url = "https://realmrouter.cn/v1/chat/completions"
    headers = {
        "Authorization": f"Bearer {api_key}",
        "Content-Type": "application/json"
    }
    
    data = {
        "model": model,
        "messages": [
            {"role": "user", "content": message}
        ],
        "stream": True,
        "max_tokens": 1000,
        "temperature": 0.7
    }
    
    response = requests.post(url, headers=headers, json=data, stream=True)
    
    for line in response.iter_lines():
        if line:
            line = line.decode('utf-8')
            if line.startswith('data: '):
                data = line[6:]
                if data != '[DONE]':
                    import json
                    chunk = json.loads(data)
                    if 'choices' in chunk and len(chunk['choices']) > 0:
                        delta = chunk['choices'][0].get('delta', {})
                        if 'content' in delta:
                            print(delta['content'], end='', flush=True)

# 使用示例
stream_chat("gpt-3.5-turbo", "请介绍一下人工智能的发展历史", "your_api_key")

多轮对话

python
def multi_turn_chat(model, api_key):
    url = "https://realmrouter.cn/v1/chat/completions"
    headers = {
        "Authorization": f"Bearer {api_key}",
        "Content-Type": "application/json"
    }
    
    conversation = []
    
    while True:
        user_input = input("用户: ")
        if user_input.lower() in ['quit', 'exit', '退出']:
            break
            
        conversation.append({"role": "user", "content": user_input})
        
        data = {
            "model": model,
            "messages": conversation,
            "max_tokens": 1000,
            "temperature": 0.7
        }
        
        response = requests.post(url, headers=headers, json=data)
        result = response.json()
        
        assistant_reply = result['choices'][0]['message']['content']
        print(f"助手: {assistant_reply}")
        
        conversation.append({"role": "assistant", "content": assistant_reply})

# 使用示例
multi_turn_chat("gpt-3.5-turbo", "your_api_key")

参数说明

基础参数

参数类型必需说明示例值
modelstring模型名称"gpt-3.5-turbo"
messagesarray对话消息列表[{"role": "user", "content": "你好"}]
max_tokensinteger最大输出 Token 数1000
temperaturenumber输出随机性 (0-2)0.7
top_pnumber核采样参数 (0-1)0.9
streamboolean是否流式输出false

高级参数

参数类型必需说明示例值
stopstring/array停止序列["\n", "

基于 MIT 许可发布 厦门界云聚算网络科技有限公司