阅丞集团API服务接口
使用分配的API密钥访问以下接口,获取AI大模型服务支持
API接口使用说明
API访问地址
https://ycceo.com/API/endpoint.php
注意:AI输出为Markdown格式
所有AI模型的响应内容均采用Markdown格式,便于展示代码、列表、表格等结构化内容
阅丞集团支持的模型
YueCheng-DeepSeek-Chat
阅丞通用对话模型,适用于日常对话和一般性问题解答
YueCheng-DeepSeek-Reasoner
阅丞思考推理模型,适用于需要复杂逻辑分析的任务
AI图片生成
使用AI技术生成高质量图片,满足创意需求
单轮对话
多轮对话
流式输出
单轮对话请求方式
使用POST方法发送请求,包含以下参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| api_key | String | 是 | 分配给您的API密钥 |
| prompt | String | 是" data-en="Yes">是 | 您的请求内容 |
| model | String | 否 | 选择使用的模型,可选值:YueCheng-DeepSeek-Chat(默认,通用对话)或 YueCheng-DeepSeek-Reasoner(思考推理模式) |
示例代码(Python - 单轮对话)
import requests
import json
# 方法1:使用Authorization头(推荐)
def chat_with_authorization():
API_URL = "https://ycceo.com/API/endpoint.php"
API_KEY = "您的API密钥"
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}
data = {
"model": "YueCheng-DeepSeek-Chat",
"prompt": "你好,请用Markdown格式介绍一下你自己",
"stream": False
}
try:
response = requests.post(API_URL, headers=headers, json=data, timeout=30)
print(f"状态码: {response.status_code}")
result = response.json()
if result.get('success'):
print("AI回复 (Markdown格式):")
print(result.get('answer'))
else:
print(f"错误: {result.get('error')}")
except Exception as e:
print(f"请求失败: {e}")
# 方法2:使用api_key参数
def chat_with_api_key():
API_URL = "https://ycceo.com/API/endpoint.php"
API_KEY = "您的API密钥"
data = {
"api_key": API_KEY,
"model": "YueCheng-DeepSeek-Chat",
"prompt": "你好,请用Markdown格式介绍一下你自己",
"stream": False
}
try:
response = requests.post(API_URL, json=data, timeout=30)
print(f"状态码: {response.status_code}")
result = response.json()
if result.get('success'):
print("AI回复 (Markdown格式):")
print(result.get('answer'))
else:
print(f"错误: {result.get('error')}")
except Exception as e:
print(f"请求失败: {e}")
# 调用示例
if __name__ == "__main__":
chat_with_authorization() # 推荐使用这种方式
# chat_with_api_key() # 或者使用这种方式
响应格式(单轮对话)
{
"success": true,
"answer": "# AI助手介绍\n\n我是阅丞集团的AI助手,基于DeepSeek模型...\n\n## 我的能力\n- 文本理解和生成\n- 代码编写\n- 问题解答\n- 创意写作\n\n**注意:** 我输出的内容都是Markdown格式",
"model": "YueCheng-DeepSeek-Chat"
}
多轮对话请求方式
使用POST方法发送请求,包含以下参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| api_key | String | 是 | 分配给您的API密钥 |
| messages | Array | 是 | 对话历史消息数组,每个消息包含role和content字段 |
| model | String | 否 | 选择使用的模型 |
消息格式说明
- role: 消息角色,可以是 "user"(用户)、"assistant"(助手)或 "system"(系统)
- content: 消息内容
- 对话历史应该按照时间顺序排列,最新的消息放在最后
- 系统消息(role: "system")可用于设置助手的行为和角色
示例代码(Python - 多轮对话)
import requests
import json
API_URL = "https://ycceo.com/API/endpoint.php"
API_KEY = "您的API密钥"
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}
# 构建对话历史
messages = [
{
"role": "system",
"content": "你是一个有用的AI助手,请用Markdown格式回复用户的问题。"
},
{
"role": "user",
"content": "你好,请介绍一下Python编程语言的主要特点"
},
{
"role": "assistant",
"content": "# Python主要特点\n\n1. **简单易学**\n - 语法清晰简洁\n - 适合初学者入门\n\n2. **面向对象**\n - 支持面向对象编程\n - 类和对象的概念清晰\n\n3. **丰富的库**\n - 拥有庞大的第三方库生态系统\n - 涵盖Web开发、数据分析、人工智能等领域"
},
{
"role": "user",
"content": "那Python在数据科学方面有什么优势?"
}
]
data = {
"messages": messages,
"model": "YueCheng-DeepSeek-Chat",
"stream": False
}
try:
response = requests.post(API_URL, headers=headers, json=data, timeout=30)
print(f"状态码: {response.status_code}")
result = response.json()
if result.get('success'):
print("AI回复 (Markdown格式):")
print(result.get('answer'))
# 完整的对话历史(包含新的回复)
print("\n完整对话历史:")
for msg in result.get('messages', []):
print(f"{msg['role']}: {msg['content'][:100]}...")
else:
print(f"错误: {result.get('error')}")
except Exception as e:
print(f"请求失败: {e}")
响应格式(多轮对话)
{
"success": true,
"answer": "## Python在数据科学的优势\n\nPython在数据科学领域具有以下主要优势:\n\n### 1. 强大的数据处理库\n- **Pandas**: 数据清洗和分析\n- **NumPy**: 数值计算\n- **SciPy**: 科学计算\n\n### 2. 机器学习和深度学习\n- **Scikit-learn**: 传统机器学习\n- **TensorFlow/PyTorch**: 深度学习框架\n\n### 3. 数据可视化\n- **Matplotlib**: 基础绘图\n- **Seaborn**: 统计可视化\n- **Plotly**: 交互式图表",
"model": "YueCheng-DeepSeek-Chat",
"messages": [
{"role": "system", "content": "你是一个有用的AI助手,请用Markdown格式回复用户的问题。"},
{"role": "user", "content": "你好,请介绍一下Python编程语言的主要特点"},
{"role": "assistant", "content": "# Python主要特点\n\n1. **简单易学**\n - 语法清晰简洁\n - 适合初学者入门\n\n2. **面向对象**\n - 支持面向对象编程\n - 类和对象的概念清晰\n\n3. **丰富的库**\n - 拥有庞大的第三方库生态系统\n - 涵盖Web开发、数据分析、人工智能等领域"},
{"role": "user", "content": "那Python在数据科学方面有什么优势?"},
{"role": "assistant", "content": "## Python在数据科学的优势\n\nPython在数据科学领域具有以下主要优势:\n\n### 1. 强大的数据处理库\n- **Pandas**: 数据清洗和分析\n- **NumPy**: 数值计算\n- **SciPy**: 科学计算\n\n### 2. 机器学习和深度学习\n- **Scikit-learn**: 传统机器学习\n- **TensorFlow/PyTorch**: 深度学习框架\n\n### 3. 数据可视化\n- **Matplotlib**: 基础绘图\n- **Seaborn**: 统计可视化\n- **Plotly**: 交互式图表"}
]
}
流式输出请求方式
使用POST方法发送请求,包含以下参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| api_key | String | 是 | 分配给您的API密钥 |
| prompt | String | 是 | 您的请求内容(也支持messages参数) |
| stream | Boolean | 是 | 必须设置为true启用流式输出 |
| model | String | 否 | 选择使用的模型 |
流式输出特点
- 实时响应: 内容逐字返回,无需等待完整生成
- 更低延迟: 首个token返回时间大大缩短
- 更好的用户体验: 适合需要实时显示的场景
- 服务器推送: 使用Server-Sent Events (SSE) 技术
示例代码(Python - 流式输出)
import requests
import json
API_URL = "https://ycceo.com/API/endpoint.php"
API_KEY = "您的API密钥"
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}
data = {
"model": "YueCheng-DeepSeek-Chat",
"prompt": "请用Markdown格式写一篇关于人工智能的短文,包含标题、段落和列表",
"stream": True
}
try:
response = requests.post(
API_URL,
headers=headers,
json=data,
stream=True,
timeout=60
)
print("流式响应开始 (Markdown格式):")
full_response = ""
for line in response.iter_lines():
if line:
decoded_line = line.decode('utf-8')
if decoded_line.startswith('data: '):
data_str = decoded_line[6:] # 移除 "data: " 前缀
if data_str.strip() == '[DONE]':
print("\n\n流式响应结束")
break
try:
data_obj = json.loads(data_str)
if 'choices' in data_obj and len(data_obj['choices']) > 0:
delta = data_obj['choices'][0].get('delta', {})
if 'content' in delta:
content = delta['content']
print(content, end='', flush=True)
full_response += content
except json.JSONDecodeError:
continue
print(f"\n\n完整响应内容:\n{full_response}")
except Exception as e:
print(f"流式请求失败: {e}")
响应格式(流式输出)
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"#"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":" 人"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"工"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"智"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"能"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"的"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"未"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{"content":"来"},"finish_reason":null}]}
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":1700000000,"model":"deepseek-chat","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}
data: [DONE]
使用说明
- API密钥传递: 支持Authorization头(推荐)或请求体中的api_key字段
- 简化配置: 无需设置max_tokens参数,系统会自动优化输出长度
- 智能计费: 按实际使用量计费,包含服务处理费用
- 自动优化: 系统会自动选择最优的生成参数,确保响应质量和效率
- 服务费用: 每次API调用会收取固定服务费(150 tokens,约0.0012元),确保服务稳定性和响应速度
- 对话历史: 使用messages参数可实现多轮对话,系统会维护完整的对话上下文
- Markdown格式: 所有AI响应均采用Markdown格式,便于展示结构化内容
阅丞集团模型计费标准
| 计费类型 | 计费单位 | 单价(人民币) | 核心说明 |
|---|---|---|---|
| 输入 Tokens (缓存未命中) |
每百万 Tokens | 4 元 | 适用于首次提交的输入内容、未被系统缓存的个性化输入,按实际消耗的 Token 数量计费 |
| 输入 Tokens (缓存命中) |
每百万 Tokens | 0.5 元 | 适用于重复提交的相同输入内容、已被系统缓存的标准化输入,享受优惠单价 |
| 输出 Tokens | 每百万 Tokens | 12 元 | 指模型根据用户输入生成的回复文本,按回复内容实际占用的 Token 数量计费 |
| 服务处理费 | 每次调用 | 0.0012 元 | 每次API调用固定收取150 tokens的服务费,用于维持服务稳定性和性能优化 |
补充说明
- Token 计量规则: 采用行业通用的 Token 计数标准,中文文本约每 2-3 个汉字对应 1 个 Token,英文单词约每 1 个单词对应 1 个 Token(含空格和标点)
- 缓存机制说明: 系统缓存周期为 7 天,同一用户在 7 天内提交的完全一致输入内容,将优先匹配缓存数据并按缓存命中价格计费
- 扣费方式: 费用按实际使用量实时结算,从用户在阅丞集团的服务账户余额中扣除
- 价格有效期: 本计费标准自发布之日起生效,阅丞集团有权根据市场情况及模型服务成本调整价格
- 模型选择: 所有模型(包括YueCheng-DeepSeek-Chat和YueCheng-DeepSeek-Reasoner)均采用相同的计费标准
图片生成API
开发者文档地址
https://ycceo.com/API/AI-picture
使用AI技术快速生成高质量图片,满足您的创意需求。
价格说明
- 每张图片生成成功:0.2元
- 新用户免费赠送:30张 限时优惠
- 活动期间可能额外赠送更多免费额度