1. 客户端应用教程
apiqik
  • 必读
    • 欢迎来到 APIQIK - 您的 AI 模型聚合平台
    • API代理商招募&使用教程(无需技术)
    • 音频模型
  • 客户端应用教程
    • Cherry Studio使用指南
    • Chatbox 使用指南
    • Cherry Studio sora/veo视频生成教程
    • 令牌分组(Token Group)使用教程
    • Vscode claude code
    • vscode配置教程(Cline)
    • 沉浸式翻译配置教程
    • 💬 SillyTavern 配置
    • Codex 配置使用教程
    • Gemini CLI 新手 · 自定义配置完整教程
    • opencode配置使用教程
    • ClawDBot 新手配置文档
    • Claude Code 自定义 API(中转站)配置教程
    • Openclaw龙虾凭啥火,以及必知三大风险!
    • openClaw的部署教程(部署安装教程)
    • openClaw 配置飞书教程(小白版)
    • OpenClaw Skills 实战篇
  • 聊天模型
    • Chat-Completions API 使用指南
    • chat模型接口
      POST
    • 数据模型
      • 示例数据模型
        • Pet
        • Category
        • Tag
  • openai
    • 图像(Images)
      • 创建图像
      • 创建图片编辑
    • 音频(Audio)
      • 创建语音
      • 创建音频转文本
    • 自动补全(Completions)
      • 创建完成
    • 模型(Models)
      • 列出模型
      • 检索模型
  • gemini
    • 聊天(chat)
      • gemini格式聊天接口
      • 分析视频
      • 流式响应
      • 多轮对话
    • 绘画模型
      • gemini-3-pro-image-preview(文生图)
      • gemini-3-pro-image-preview(图生图)
  • 音乐模型
    • Suno 音乐生成 API
  • 绘画模型
    • Chat 格式生图 (gpt-4o)
    • 专用生图接口 (DALL-E 格式)
    • gemini-2.5-flash-image接口文档(chat)
    • gemini-2.5-flash-image图像生成接口(支持比例)
    • 即梦(seedream)
      • 创建图片
      • 编辑图片
    • nano banana
      • gemini-2.5-flash-image图像生成接口(gemini格式)
      • gemini-3-pro-image-preview(banana pro)图像生成接口(gemini格式)
      • gemini-3.1-flash-image-preview(nano banana 2) (文生图)模型接口
      • gemini-3.1-flash-image-preview(nano banana 2) (图生图)模型接口
      • gemini-3.1-flash-image-preview(nano banana 2) (多图生图)模型接口
    • Qwen千问
      • 生成图片(qwen-image)
      • 编辑图像(qwen-image-edit)
    • gpt-image-1.5
      • chat 格式
        • 生成图片 (传图)
        • 生成图片
      • image/generations 格式(dalle 格式)
        • 创建图像
        • 创建图片编辑
    • 豆包
      • doubao-seedream-5-0-260128 模型(文生图)
      • doubao-seedream-5-0-260128 模型(图生图)
      • doubao-seedream-5-0-260128 模型(多图生图)
    • gpt imag 图像编辑接口
  • 视频模型
    • veo
      • Veo3 视频生成 API
      • 查询视频详情
      • veo3(veo3.1)视频生成(异步)
    • sora-2
      • sora2 生成视频(chat格式)
      • sora2 异步文档
      • sora-2官方格式(异步,失败不扣分)
        • sora-2创建视频
        • 检索视频
        • 编辑视频接口(暂时不能使用)
        • 获取视频内容
        • 使用故事板创建视频
    • grok
      • 获取视频内容
      • grok 视频生成
    • wan
      • wan视频创建
      • 检索视频
      • 获取视频内容
  • 音频模型
    • minimax
      • 上传复刻音频(purpose=voice_clone)
      • 上传示例音频(purpose=prompt_audio)
      • 音色快速复刻
    • 原生Gemini格式
    • 获取令牌使用情况
  • 代理接口调用
    • 创建令牌(需要登录)
    • 用户登录(用于获取其他接口需要的认证信息)
    • 获取令牌余额信息
    • 获取使用量统计
    • 获取令牌调用日志
  • 嵌入(Embeddings)
    • text-embedding-3-large模型
  1. 客户端应用教程

Openclaw龙虾凭啥火,以及必知三大风险!

这两年,OpenClaw 越来越火,不少人把它叫“龙虾”。它火,不是因为又多了一个聊天机器人,而是因为它把“聊天入口、AI 助手、工具执行、本地控制”揉到了一起。官方把它定位成一个 self-hosted gateway:你在自己的机器或服务器上运行一个 Gateway,它就能把 WhatsApp、Telegram、Discord、Feishu 等聊天入口接到一个长期在线的 AI 助手上。GitHub README 也强调,它想做的是“运行在你自己设备上的个人 AI 助手”,而不是纯网页聊天玩具。

一、OpenClaw 凭什么火#

1.
它不是“再来一个聊天框”,而是“把助手接进你常用入口”
OpenClaw 最大的吸引力,是你不用专门打开一个网页去找 AI。它可以接入很多你已经在用的聊天渠道,让助手像联系人一样长期在线。官方文档和 README 都把“连接你常用的聊天应用”当成核心卖点。
2.
它是“自己部署”,很多人觉得更可控
OpenClaw 主打 self-hosted,也就是自己部署、自己掌控。这对开发者和重视隐私的人很有吸引力:日志、配置、权限、工作区、工具范围,都能由自己决定,而不是完全交给某个托管平台。官方文档也明确说它面向的是想要“个人 AI 助手,又不想放弃数据控制权”的开发者和 power users。
3.
它不只是会聊,还真的能“做事”
OpenClaw 的能力不是只靠模型回答问题。官方工具体系里有内置 tools,也有 skills 和 plugins:tool 是实际执行的函数,例如 exec、browser、web_search、message;skill 负责教模型“什么时候、如何使用这些工具”。这也是为什么很多人觉得它不像普通 AI,更像一个能动手的助手。
4.
它适合开发者工作流
OpenClaw 有 daemon、logs、skills、cron 这一整套命令行体系,能做本地控制、技能扩展、日志排查和定时任务。对开发者来说,这就不是“问答工具”,而是能进入工作流的控制平面。官方 CLI 参考里专门列出了这些命令树。
5.
Skills 生态让它更像“可训练的助手”
OpenClaw 支持 skills,官方也建议用 npx clawhub 搜索、安装和同步 skills。再加上公开的 skills 收录仓库,说明它已经不只是一个单体工具,而是在往“能力生态”方向长。

二、为什么很多人第一次上手就会觉得惊艳#

第一次接触 OpenClaw,很多人会有一种“这玩意儿真能帮我干活”的感觉,原因通常有三个。
第一,它离用户更近。AI 不再只是网页里的一个输入框,而是能在你熟悉的消息入口里出现。
第二,它有真实操作能力。只要工具和权限放开,它可以读文件、执行命令、调用浏览器、走定时任务,这种“可行动性”会明显强于只会回复文本的模型。官方 Exec tool 文档和 Tools 文档都明确说明了这一点。
第三,它很适合“个人长期助手”这个定位。README 直接把它定义成 personal, single-user assistant,强调“local、fast、always-on”的体验。

三、但越火,越要先看风险#

OpenClaw 的危险不在于“它是不是开源”,而在于:你是在把一个会用工具的 AI 接进真实聊天入口、真实文件系统和真实命令环境。官方安全文档写得非常直白:这既是产品,也是实验,没有“绝对安全”的部署方式,关键是想清楚“谁能跟它说话、它能去哪里、它能碰什么”。
下面这三大风险,是最值得在文章里重点提醒用户的。

风险一:权限过大,AI 出错就不是“答错”,而是“做错”#

普通聊天机器人答错,最多是内容不准。
但 OpenClaw 一旦接了本地工具,风险就会变成:
误删文件
错改配置
执行危险命令
把不该暴露的信息读出来
官方安全文档点名了多个高风险点,包括文件系统权限、浏览器控制暴露、elevated allowlists、Gateway 认证暴露等;官方 Exec tool 文档也说明,命令执行能力本身就需要严格审批和白名单控制。
给小白的一句话提醒:
别把 OpenClaw 想成“更聪明的聊天框”,要把它想成“可能会替你按下回车键的助手”。
风险二:聊天入口一旦放开,等于把“控制权”暴露到了消息面
OpenClaw 的魅力之一,是它能接很多聊天入口;但同样,这也是最大的风险来源之一。只要消息入口配置不严,别人就有机会通过聊天指挥它做事。官方安全说明强调,首先要想清楚“谁能和你的 bot 说话”,并建议从最小访问开始。CLI 的 security 页面也提醒,OpenClaw 默认是个人助手信任模型,不适合天然按“多人共享高信任工具”来理解。
这意味着什么?
私人自用,风险相对可控
群聊、多人共享、外部接入,风险会陡增
一旦配了开放 DM、开放群组或宽泛 sender 规则,就必须把它当成高风险入口
给小白的一句话提醒:
你不是在“把 AI 放进群里”,你是在“把带工具权限的助手放进群里”。
风险三:技能、脚本、假安装包,本身也可能成为攻击面
OpenClaw 很强调 skills 和扩展生态,这很强,但也会带来供应链风险。你装的 skill、你复制的脚本、你跟着网上教程跑的安装命令,本质上都可能影响你的本地环境。社区技能库很多,官方也推荐用 clawhub,但这并不等于所有技能都适合直接无脑装。
更现实的是,已经有外部媒体和安全文章提到,随着 OpenClaw 热度上涨,假版本、恶意分发、配置不当带来的攻击面也在增加。虽然这类报道需要谨慎解读,但“热度越高,仿冒和滥用越多”本身是非常现实的风险。
给小白的一句话提醒:
Skill 不是“皮肤包”,它更像“给助手新增能力的说明书和执行入口”;来源不明,就别乱装。

四、那普通用户到底该怎么安全地用#

如果你写这篇文章,建议不要只吓人,还要给一套能落地的做法。
第一,先从最小权限开始。官方安全文档的建议也是这个思路:先给最小可用权限,确认稳定后再逐步放大。
第二,把工作区限定清楚。让它默认只在一个项目目录里活动,不要上来就给全盘文件访问。官方关于 workspace 的设计,本身也是围绕“默认工作目录”来组织上下文和工具操作的。
第三,本地命令执行要谨慎。尤其是 exec 相关能力,最好先让它做只读、低风险动作,再慢慢放开。官方为 exec 专门做了 approvals 和 allowlist,就是因为这是高风险能力。
第四,skills 先少量装。先用你自己能看懂、能维护的 skill,别一上来堆一大堆来源不明的社区能力。
第五,定期看日志和安全提示。OpenClaw 自带日志和安全审计相关入口,至少要做到:知道谁在跟它说话、它调用了哪些工具、最近跑过什么任务。
修改于 2026-03-22 06:20:29
上一页
Claude Code 自定义 API(中转站)配置教程
下一页
openClaw的部署教程(部署安装教程)
Built with