快捷创建智能体

cota提供了多个场景的智能体示例,方便测试和参考

cota init

执行上面初始化命令后,得到cota_projects目录,cota_projects中的每个目录都是一个智能体示例:

  • weather: 天气查询机器人,展示基础配置和Chain of Thought推理过程
  • pet: 宠物问诊机器人,展示代理用户模式(proxy user)和数据生成功能

文件说明

每个智能体至少包括endpoints.ymlagent.yml两个配置文件。

endpoints.yml 定义agent运行需要的服务配置,包括数据库类型及配置(用于维护对话状态)、通道类型及配置、大语言模型配置等。 agent.yml 定义了agent的基本元素,包括智能体的系统描述、可执行动作、对话配置和策略配置等。

运行智能体

选择cota_projects中的文件夹进入,如weather示例:

cd cota_projects/weather

配置LLM

编辑endpoints.yml文件,配置您的LLM API密钥:

llms:
  deepseek:
    type: openai
    model: deepseek-chat
    key: your_actual_api_key_here  # 替换为您的真实API密钥
    apibase: https://api.deepseek.com/v1

启动调试模式

使用命令行与智能体交互,适用于调试和验证:

cota shell --debug

启动服务模式

如果需要部署到生产环境提供API服务:

# WebSocket服务
cota run --channel=websocket --host=0.0.0.0 --port=5005

# 或启动HTTP API服务器
cota server --host=0.0.0.0 --port=8000

💡 提示:初次测试建议使用Memory存储类型,生产环境推荐配置数据库以获得更好的性能和可靠性。