MoltBot(ClawdBot)使用&接入教程

氢云
2026-01-29
点 赞
1
热 度
617
评 论
1
  1. 首页
  2. 技术教程
  3. MoltBot(ClawdBot)使用&接入教程

前言

现在又改名OpenClaw了,麻了

由于没得&买不起Mac Mini,所以只能退而求其次用Linux部署,故本教程在Linux系统下进行

主要内容为程序的初始化以及接入国内的部分聊天软件,例如飞书、企微、QQ等

小贴士:不建议使用日常电脑或部署了服务的服务器,容易删库跑路呢

为了方便,所以使用的带公网的云服务器,装Debian12系统

如果没有备案域名的话,建议直接用香港的服务器,速度快一些且不用备案

如果没有合适的服务器话,可以看看下边推荐的这个,建议4C4G起步

https://rain.uomn.cnhttps://www.uomn.cn/archives/rainyun-personal-server

神马?你还没有安装好用的SSH工具,可以参考下方文章安装一个(本教程使用的)

https://www.uomn.cn/archives/finalshell-usage-tutorial

声明:本文中所安装渠道的插件均有Github,都是我在网上搜集的,安全性自查

MoltBot主体部署

连上SSH后,执行命令进行安装

# npm config set registry https://registry.npmmirror.com
curl -fsSL https://molt.bot/install.sh | bash

我这个服务器刚装完系统,毛都没有,所以会在执行命令后会自动下载一些必须的环境

下载到后边会一直不动,耐心等待安装完成

emmm,安装差不多5-10分钟,安装完成后进入初始化页面

注意:后续初始化过程中,单选使用键盘上的方向键选择,多选使用空格进行选择

第一项:我知道这功能强大且本身存在风险。是否继续?选YES

第二项:引导模式。选QuickStart

第三项:选模型,这里我就选择了GLM,我还有一点资源包没用,你们随意即可

第四项:选择默认模型,直接默认即可

第五项:选择接入的第三方软件,这里跳过

第六项:配置技能,这里先不配置

第七项:只启用这个上下文记忆就行了,都选也可以,空格选中,可多选

然后问你怎么用BOT,第一项是命令行直接对话,第二个是打开WebUI使用,第三个是都不用,因为后续要接入其他聊天软件,所以这里选第三个

是否安装命令补全,不安装就行

然后就进入了启动阶段,预计耗时1分钟

测试MoltBot

终端中执行下方命令开始进行对话

openclaw tui

如果正常回复,则说明测试通过,然后连续快速按两次Crtl+C退出

接入大模型

打算多接入几个渠道的模型(非OAuth授权的渠道),本小结教程主要是接入OpenAI兼容模型的方法

第一步就是找到配置文件,我是Linux部署的,两个需要修改的配置文件路径如下

主配置文件:/root/.openclaw/openclaw.json

模型授权相关配置文件:/root/.openclaw/agents/main/agent/auth-profiles.json

现有配置文件

目前我是接入了GLM的官方模型

openclaw.json配置文件

{
  "meta": {
    "lastTouchedVersion": "2026.1.24-3",
    "lastTouchedAt": "2026-01-29T13:03:16.133Z"
  },
  "wizard": {
    "lastRunAt": "2026-01-29T12:25:10.496Z",
    "lastRunVersion": "2026.1.24-3",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {
      "zai:default": {
        "provider": "zai",
        "mode": "api_key"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "zai/glm-4.7"
      },
      "models": {
        "zai/glm-4.7": {
          "alias": "GLM"
        }
      },
      "workspace": "/root/clawd",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "session-memory": {
          "enabled": true
        }
      }
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "1f9b3ac5c3xxxxxxxxef9f005fa3d492"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  }
}

auth-profiles.json配置文件

{
  "version": 1,
  "profiles": {
    "zai:default": {
      "type": "api_key",
      "provider": "zai",
      "key": "08b0ebxxxxxxlPZ6v1sil"
    }
  },
  "lastGood": {
    "zai": "zai:default"
  },
  "usageStats": {
    "zai:default": {
      "lastUsed": 1769730756847,
      "errorCount": 0
    }
  }
}

理解配置含义

因我我这里不会接入所有的渠道,所以只要理解了一些配置的含义、使用方法后,就可以自行接入其他模型渠道了

# 认证配置声明,主要用于匹配auth-profiles.json文件中的授权信息
"auth": {
    "profiles": {
      "zai:default": {
        # 模型提供商名称
        "provider": "zai",
        # 认证模式
        "mode": "api_key"
      }
   }
},
# 代理配置
"agents": {
  "defaults": {
    "model": {
      # 默认主模型,只能填一个
      "primary": "zai/glm-4.7"
    },
    "models": {
      # 模型白名单,定义允许使用的模型列表
      "zai/glm-4.7": {
        # 模型别名,方便命令调用
        "alias": "GLM"
      }
    },
    # 工作目录,不用管
    "workspace": "/root/clawd",
    "compaction": {
      # 会话压缩模式,不用管
      "mode": "safeguard"
    },
    # 最大并发会话数,不用管
    "maxConcurrent": 4,
    "subagents": {
      # 最大子代理并发数,不用管
      "maxConcurrent": 8
    }
  }
}

模型检查

在开始前先看下当前已经启用了的模型

在终端中执行下方命令查看

openclaw models list

看到我这里确实只接入了GLM

新增配置项说明

下方models的配置是在最外层的,与上边的提到的不是同一个

以月之暗面为例,这里不要开始着急修改配置文件哈

{
  "models": {
    # 合并模式:将自定义模型提供商与内置提供商合并,保留内置提供商的同时使用自定义提供商
    "mode": "merge",
    "providers": {
      # 自定义提供商名称,后续引用使用`moonshot/模型名`
      "moonshot": {
        # 自定义API地址
        "baseUrl": "https://api.moonshot.cn/v1",
        # OpenAI协议
        "api": "openai-completions",
        # 模型列表,id是实际调用的模型名,name用于查询模型列表时展示用的
        "models": [
          { "id": "kimi-k2.5", "name": "Kimi K2.5" },
          { "id": "kimi-k2-turbo-preview", "name": "Kimi K2 Turbo" },
          { "id": "moonshot-v1-8k", "name": "Moonshot v1 8K" },
          { "id": "moonshot-v1-32k", "name": "Moonshot v1 32K" }
        ]
      }
    }
  }
}

开始接入Kimi

第零步,先备份配置文件,在终端中执行

cp /root/.openclaw/openclaw.json /root/.openclaw/openclaw.json.bak
cp /root/.openclaw/agents/main/agent/auth-profiles.json /root/.openclaw/agents/main/agent/auth-profiles.json.bak

第一步,编辑openclaw.json 文件,先新增一个认证配置,该部分配置用于匹配auth-profiles.json 文件中的密钥

"moonshot:default": {
    "provider": "moonshot",
    "mode": "api_key"
}

第二步,编辑auth-profiles.json 文件,新增密钥

    "moonshot:default": {
      "type": "api_key",
      "provider": "moonshot",
      "key": "你的MOONSHOT_API_KEY"
    }

第三步,编辑openclaw.json 文件,接入模型提供商,此处添加的模型列表才能用于后续的使用,这个我就加载文件末尾了

"models": {
  "mode": "merge",
  "providers": {
    "moonshot": {
      "baseUrl": "https://api.moonshot.cn/v1",
      "api": "openai-completions",
      "models": [
        { "id": "kimi-k2.5", "name": "Kimi K2.5" },
        { "id": "kimi-k2-turbo-preview", "name": "Kimi K2 Turbo" },
        { "id": "moonshot-v1-8k", "name": "Moonshot v1 8K" },
        { "id": "moonshot-v1-32k", "name": "Moonshot v1 32K" }
      ]
    }
  }
}

第四步,编辑openclaw.json 文件,增加模型白名单,这里添加的模型,需要在第三步中的模型列表中存在的

"moonshot/kimi-k2.5": {
    "alias": "Kimi"
},
"moonshot/kimi-k2-turbo-preview": {
    "alias": "Kimi Turbo"
}

第五步,给当前主模型增加备选模型,即主模型噶了,自动调用备选模型,注意:备选模型可以同时填入多个

"fallbacks": [
  "moonshot/kimi-k2.5"
]

合并后的配置文件如下

{
  "meta": {
    "lastTouchedVersion": "2026.1.24-3",
    "lastTouchedAt": "2026-01-29T13:03:16.133Z"
  },
  "wizard": {
    "lastRunAt": "2026-01-29T12:25:10.496Z",
    "lastRunVersion": "2026.1.24-3",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {
      "zai:default": {
        "provider": "zai",
        "mode": "api_key"
      },
      "moonshot:default": {
        "provider": "moonshot",
  	    "mode": "api_key"
	 }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "zai/glm-4.7",
        "fallbacks": [
		  "moonshot/kimi-k2.5"
	    ]
      },
      "models": {
        "zai/glm-4.7": {
          "alias": "GLM"
        },
        "moonshot/kimi-k2.5": {
		 "alias": "Kimi"
	    },
	    "moonshot/kimi-k2-turbo-preview": {
		  "alias": "Kimi Turbo"
	    }
      },
      "workspace": "/root/clawd",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "session-memory": {
          "enabled": true
        }
      }
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "1f9b3ac5c3d504xxxxxxxx681ef9f005fa3d492"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "plugins": {
    "entries": {
      "feishu": {
        "enabled": true
      }
    },
    "installs": {
      "feishu": {
        "source": "npm",
        "spec": "@m1heng-clawd/feishu",
        "installPath": "/root/.openclaw/extensions/feishu",
        "version": "0.1.1",
        "installedAt": "2026-01-29T12:45:17.121Z"
      }
    }
  },
  "channels": {
    "feishu": {
      "enabled": true,
      "appId": "cli_a9xxxxxx88d389cb5",
      "appSecret": "0D52XjxxxxxxxxxxxxX0VyHzB",
      "domain": "feishu",
      "groupPolicy": "disabled"
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "moonshot": {
        "baseUrl": "https://api.moonshot.cn/v1",
        "api": "openai-completions",
        "models": [
          { "id": "kimi-k2.5", "name": "Kimi K2.5" },
          { "id": "kimi-k2-turbo-preview", "name": "Kimi K2 Turbo" },
          { "id": "moonshot-v1-8k", "name": "Moonshot v1 8K" },
          { "id": "moonshot-v1-32k", "name": "Moonshot v1 32K" }
        ]
      }
    }
  }
}
{
  "version": 1,
  "profiles": {
    "zai:default": {
      "type": "api_key",
      "provider": "zai",
      "key": "08b0eb03d0554xxxxxxxxx6iMClPZ6v1sil"
    },
     "moonshot:default": {
       "type": "api_key",
       "provider": "moonshot",
       "key": "sk-qsuPdU5xxxxxxxxxxxxxxxiIxDnDlbm"
    }
  },
  "lastGood": {
    "zai": "zai:default"
  },
  "usageStats": {
    "zai:default": {
      "lastUsed": 1769730756847,
      "errorCount": 0
    }
  }
}

检查配置文件语法

终端执行下方命令,选择两个YES,如果最后没报错,就是没问题

openclaw doctor

重启&检验

重启后新的配置生效

openclaw gateway restart

查看可用模型列表

openclaw models list

切换到Kimi模型,

openclaw models set moonshot/kimi-k2.5

测试对话,终端执行下方命令开始对话

openclaw tui

然后Kimi就这样水灵灵的接入完成了,中转API也是类似步骤,无法就是改一下模型名、API地址、密钥啥的

神马?还要来一遍中转API的接入教程?那好吧,那我就再写一个中转API的教程好了

接入中转API

想要接入中转API,前提是要有一个中转API的渠道,如果没有的话,我推荐下边这个

https://api.hallucodex.chat/register?aff=qc7u

由于我上边教程已经接过kimi的了,所以可能配置文件里边有一些变化

第零步,先备份配置文件,在终端中执行

cp /root/.openclaw/openclaw.json /root/.openclaw/openclaw.json.bak
cp /root/.openclaw/agents/main/agent/auth-profiles.json /root/.openclaw/agents/main/agent/auth-profiles.json.bak

第一步,编辑openclaw.json 文件,先新增一个认证配置,该部分配置用于匹配auth-profiles.json 文件中的密钥

我使用的中转域名包含hallucodex,那我就把这个作为模型提供商的

"hallucodex:default": {
    "provider": "hallucodex",
    "mode": "api_key"
}

第二步,编辑auth-profiles.json 文件,新增密钥

{
    "hallucodex:default": {
        "type": "api_key",
        "provider": "hallucodex",
        "key": "sk-xxxxxxxxxxxx"
    }
}

第三步,编辑openclaw.json 文件,接入模型提供商,此处添加的模型列表才能用于后续的使用。这里为了方便,我就搞了两个模型

{
    "hallucodex": {
        "baseUrl": "https://api.hallucodex.com/v1",
        "api": "openai-completions",
        "models": [
            {
                "id": "gpt-5.2-chat-latest",
                "name": "GPT 5.2"
            },
            {
                "id": "claude-opus-4-5-20251101",
                "name": "Claude 4.5"
            }
        ]
    }
}

第四步,编辑openclaw.json 文件,增加模型白名单,这里添加的模型,需要在第三步中的模型列表中存在的

{
    "hallucodex/gpt-5.2-chat-latest": {
        "alias": "GPT 5.2"
    },
    "hallucodex/claude-opus-4-5-20251101": {
        "alias": "Claude 4.5"
    }
}

第五步,给当前主模型增加备选模型,即主模型噶了,自动调用备选模型,注意:备选模型可以同时填入多个

"hallucodex/gpt-5.2-chat-latest",
"hallucodex/claude-opus-4-5-20251101"

第六步,新增视图模型,这两个中转模型都支持图片理解,所以这里顺手加上

{
    "imageModel": {
        "primary": "hallucodex/gpt-5.2-chat-latest",
        "fallbacks": [
            "hallucodex/claude-opus-4-5-20251101"
        ]
    }
}

合并后的配置文件如下

{
    "meta": {
        "lastTouchedVersion": "2026.1.24-3",
        "lastTouchedAt": "2026-01-30T02:08:15.927Z"
    },
    "wizard": {
        "lastRunAt": "2026-01-29T12:25:10.496Z",
        "lastRunVersion": "2026.1.24-3",
        "lastRunCommand": "onboard",
        "lastRunMode": "local"
    },
    "auth": {
        "profiles": {
            "zai:default": {
                "provider": "zai",
                "mode": "api_key"
            },
            "moonshot:default": {
                "provider": "moonshot",
                "mode": "api_key"
            },
            "hallucodex:default": {
                "provider": "hallucodex",
                "mode": "api_key"
            }
        }
    },
    "models": {
        "mode": "merge",
        "providers": {
            "hallucodex": {
                "baseUrl": "https://api.hallucodex.com/v1",
                "api": "openai-completions",
                "models": [
                    {
                        "id": "gpt-5.2-chat-latest",
                        "name": "GPT 5.2"
                    },
                    {
                        "id": "claude-opus-4-5-20251101",
                        "name": "Claude 4.5"
                    }
                ]
            },
            "moonshot": {
                "baseUrl": "https://api.moonshot.cn/v1",
                "api": "openai-completions",
                "models": [
                    {
                        "id": "kimi-k2.5",
                        "name": "Kimi K2.5",
                        "reasoning": false,
                        "input": [
                            "text"
                        ],
                        "cost": {
                            "input": 0,
                            "output": 0,
                            "cacheRead": 0,
                            "cacheWrite": 0
                        },
                        "contextWindow": 200000,
                        "maxTokens": 8192
                    },
                    {
                        "id": "kimi-k2-turbo-preview",
                        "name": "Kimi K2 Turbo",
                        "reasoning": false,
                        "input": [
                            "text"
                        ],
                        "cost": {
                            "input": 0,
                            "output": 0,
                            "cacheRead": 0,
                            "cacheWrite": 0
                        },
                        "contextWindow": 200000,
                        "maxTokens": 8192
                    },
                    {
                        "id": "moonshot-v1-8k",
                        "name": "Moonshot v1 8K",
                        "reasoning": false,
                        "input": [
                            "text"
                        ],
                        "cost": {
                            "input": 0,
                            "output": 0,
                            "cacheRead": 0,
                            "cacheWrite": 0
                        },
                        "contextWindow": 200000,
                        "maxTokens": 8192
                    },
                    {
                        "id": "moonshot-v1-32k",
                        "name": "Moonshot v1 32K",
                        "reasoning": false,
                        "input": [
                            "text"
                        ],
                        "cost": {
                            "input": 0,
                            "output": 0,
                            "cacheRead": 0,
                            "cacheWrite": 0
                        },
                        "contextWindow": 200000,
                        "maxTokens": 8192
                    }
                ]
            }
        }
    },
    "agents": {
        "defaults": {
            "model": {
                "fallbacks": [
                    "moonshot/kimi-k2.5",
                    "hallucodex/gpt-5.2-chat-latest",
                    "hallucodex/claude-opus-4-5-20251101"
                ],
                "primary": "moonshot/kimi-k2.5",
                "imageModel": {
                    "primary": "hallucodex/gpt-5.2-chat-latest",
                    "fallbacks": [
                        "hallucodex/claude-opus-4-5-20251101"
                    ]
                }
            },
            "models": {
                "zai/glm-4.7": {
                    "alias": "GLM"
                },
                "moonshot/kimi-k2.5": {
                    "alias": "Kimi"
                },
                "moonshot/kimi-k2-turbo-preview": {
                    "alias": "Kimi Turbo"
                },
                "hallucodex/gpt-5.2-chat-latest": {
                    "alias": "GPT 5.2"
                },
                "hallucodex/claude-opus-4-5-20251101": {
                    "alias": "Claude 4.5"
                }
            },
            "workspace": "/root/clawd",
            "compaction": {
                "mode": "safeguard"
            },
            "maxConcurrent": 4,
            "subagents": {
                "maxConcurrent": 8
            }
        }
    },
    "messages": {
        "ackReactionScope": "group-mentions"
    },
    "commands": {
        "native": "auto",
        "nativeSkills": "auto"
    },
    "hooks": {
        "internal": {
            "enabled": true,
            "entries": {
                "session-memory": {
                    "enabled": true
                }
            }
        }
    },
    "channels": {
        "feishu": {
            "enabled": true,
            "appId": "cli_axxxxxx389cb5",
            "appSecret": "0D52xxxxxxpteDPIX0VyHzB",
            "domain": "feishu",
            "groupPolicy": "disabled"
        }
    },
    "gateway": {
        "port": 18789,
        "mode": "local",
        "bind": "loopback",
        "auth": {
            "mode": "token",
            "token": "1f9b3axxxxxxxxxx5fa3d492"
        },
        "tailscale": {
            "mode": "off",
            "resetOnExit": false
        }
    },
    "plugins": {
        "entries": {
            "feishu": {
                "enabled": true
            }
        },
        "installs": {
            "feishu": {
                "source": "npm",
                "spec": "@m1heng-clawd/feishu",
                "installPath": "/root/.openclaw/extensions/feishu",
                "version": "0.1.1",
                "installedAt": "2026-01-29T12:45:17.121Z"
            }
        }
    }
}
{
    "version": 1,
    "profiles": {
        "zai:default": {
            "type": "api_key",
            "provider": "zai",
            "key": "08b0eb03xxxxxxxzQx6iMClPZ6v1sil"
        },
        "moonshot:default": {
            "type": "api_key",
            "provider": "moonshot",
            "key": "sk-qsuPxxxxxxxxx9H5gNDCiIxDnDlbm"
        },
        "hallucodex:default": {
            "type": "api_key",
            "provider": "hallucodex",
            "key": "sk-zIrxxxxxxxxx657a815924"
        }
    },
    "lastGood": {
        "zai": "zai:default",
        "moonshot": "moonshot:default",
        "hallucodex": "hallucodex:default"
    },
    "usageStats": {
        "zai:default": {
            "lastUsed": 1769730756847,
            "errorCount": 0
        },
        "moonshot:default": {
            "lastUsed": 1769739170729,
            "errorCount": 0
        }
    }
}

检查配置语法、重启&检验的步骤,看上边接入Kimi时的教程,都一样的,就不重复了

接入飞书

安装飞书渠道

官方库:https://github.com/m1heng/clawdbot-feishu

在终端中输入下方命令进行安装,预计安装耗时3-5分钟

openclaw plugins install @m1heng-clawd/feishu
# npm install @m1heng-clawd/feishu --registry https://registry.npmmirror.com

创建飞书机器人

打开飞书开放平台:https://open.feishu.cn/

创建企业自建应用

然后填一下应用名称和描述

添加机器人的应用能力

接入飞书机器人

emmm,还是先把openclaw的飞书渠道添加一下吧

返回终端执行下方命令,你就会发现飞书的渠道多出来了

Tip:也可以直接修改配置文件,这里我是用的交互,后边几个渠道都是直接修改配置文件的

openclaw channels add

返回飞书的开放平台,能够看到ID、密钥

然后回到终端,输入ID

确认后,再输入密钥

然后让你选择飞书的域名,国内则选第一个,国外选第二个。一般都是选第一个

下一项是群聊策略,这里建议不开启,万一谁在群聊里用你机器人执行 rm -rf /* 你不炸了

然后飞书配置完后,会回到渠道列表,选择最后一个完成

下一步会进入私聊策略的配置中,选择是

官方推荐是选择第一种,所以这里就选第一个:配对模式

下一项是:是否为这些账号添加显示名称?选是

输入飞书名?

配置机器人权限

然后返回飞书的开放平台,开通一下子权限

{
  "scopes": {
    "tenant": [
      "im:message.group_msg",
      "im:message.p2p_msg:readonly",
      "im:message.reactions:read",
      "im:message:readonly",
      "im:message:recall",
      "im:message:send_as_bot",
      "im:message:update",
      "im:resource",
      "contact:user.base:readonly",
      "contact:contact.base:readonly"
    ],
    "user": [
      "docx:document:readonly"
    ]
  }
}

添加飞书消息事件

这里的订阅方式使用长连接

点击添加事件,找到接受消息的时间,选中后确认添加

发布飞书机器人

创建版本后发布机器人

若上方显示:本次发布免审核,提交发布后即可上线使用,则在发布后直接就能用,否则需要找企业中具有审核权限的人审核你发布的应用后才能用

测试

在飞书的工作台中能找到你刚发布的机器人,双击进去就能用啦

接入钉钉

官方库:https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector

安装钉钉渠道

在终端中执行下方命令安装钉钉渠道

openclaw plugins install https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector.git

创建钉钉机器人

钉钉开放平台:https://open.dingtalk.com/

填好应用名称和描述后保存

添加机器人的应用能力

启用机器人配置,必填项都填上,其余的默认即可

下滑到底,点发布保存配置

然后需要开通几个权限,一行一个,一个一个搜,然后开通

Card.Streaming.Write
Card.Instance.Write
qyapi_robot_sendmsg

发布机器人

修改配置文件

修改openclaw.json 文件,新增钉钉配置

{
    "dingtalk": {
        "enabled": true,
        "clientId": "你的钉钉AppKey",
        "clientSecret": "你的钉钉AppSecret",
        "gatewayToken": "你配置文件中的Token",
        "sessionTimeout": 1800000
    }
}

下图中的两个信息替换上边配置文件中的值

启用 HTTP Chat Completions 端点

{
    "http": {
        "endpoints": {
            "chatCompletions": {
                "enabled": true
            }
        }
    }
}

重启&测试

终端执行下方命令,第一个是检查,没报错就执行第二个重启命令

openclaw doctor
openclaw gateway restart

在钉钉中搜索你刚创建的钉钉应用名称,即可找到机器人

对话测试没问题就完事了

接入企业微信自建应用

事先声明:如果需要接入的企业微信已经完成企业认证,则需要准备一个该企业主体的备案域名。本次教程中所使用的企业微信没有进行认证,所以可以直接使用服务器IP接入

官方库:https://github.com/dingxiang-me/clawdbot-wechat

安装企业微信应用渠道

终端执行下方命令

# 国内机用这个
git clone https://ghfast.top/https://github.com/dingxiang-me/openclaw-wechat.git && openclaw plugins install ./openclaw-wechat
# 国外机用这个
git clone https://github.com/dingxiang-me/openclaw-wechat.git && openclaw plugins install ./openclaw-wechat

创建企业微信自建应用

企业微信网页版:https://work.weixin.qq.com/

填一下上传一下logo、应用名称、可见范围就行了

获取第一个配置信息:企业ID

获取第二、三个配置信息,应用ID和密钥,获取密钥的时候,会把密钥发送到手机的企业微信上

设置API接收

image-pnrr.png

获取第四个、第五个配置信息(点随机获取)

修改配置文件

修改openclaw.json 文件,在文件末尾新增一个配置,将上边获取的5个配置信息填进去

{
  "env": {
    "vars": {
      "WECOM_CORP_ID": "你的企业ID",
      "WECOM_CORP_SECRET": "你的应用Secret",
      "WECOM_AGENT_ID": "你的应用AgentId",
      "WECOM_CALLBACK_TOKEN": "你设置的Token",
      "WECOM_CALLBACK_AES_KEY": "你生成的EncodingAESKey",
      "WECOM_WEBHOOK_PATH": "/wecom/callback"
    }
  }
}

目前openclaw还没开放外网访问,所以没法完成企业微信的回调,所以需要修改监听,将bind的值改成lan

保存配置后,重启服务

openclaw gateway restart

验证回调

URL处填写:http://<服务器IP/企业备案域名>:18789/wecom/callback

然后点保存,显示保存成功就OK了

最后一步,将你的服务器IP填到白名单

测试

接入QQ机器人(不推荐,易超时)

官方库:https://github.com/sliverp/qqbot

安装QQ机器人渠道

终端执行下方命令

# 国内机用这个
git clone https://ghfast.top/https://github.com/sliverp/qqbot.git && openclaw plugins install ./qqbot
# 国外机用这个
git clone https://github.com/sliverp/qqbot.git && openclaw plugins install ./qqbot

创建QQ机器人

QQ开放平台:https://q.qq.com/

填一下基础信息,然后确认

修改IP白名单,填入服务器的IP

修改配置文件

修改openclaw.json 文件新增QQ机器人配置信息

{
  "channels": {
    "qqbot": {
      "enabled": true,
      "appId": "你的AppID",
      "clientSecret": "你的AppSecret"
    }
  }
}

重启&测试

终端执行命令,先检测配置文件,然后重启服务

openclaw doctor
openclaw gateway restart

返回QQ开放平台,由于正式审核有一些麻烦,这里就不写了,暂时用沙箱测试

一般不建议接入群聊使用,所以我这里只接了私聊测试

接入企业微信智能机器人

官方库:https://github.com/sunnoy/openclaw-plugin-wecom

安装企业微信智能机器人渠道

终端执行下方命令

openclaw plugins install openclaw-plugin-wecom
# npm install openclaw-plugin-wecom --registry https://registry.npmmirror.com

创建智能机器人

企业微信:https://work.weixin.qq.com/

下滑到底,选择API模式创建

如下图,名称就是机器人名称,URL先不填

修改配置文件

修改openclaw.json 文件,添加下方配置,把上边随机生成的字符串填到这里

"wxwork": {
      "enabled": true,
      "token": "你的 Token",
      "encodingAesKey": "你的 EncodingAESKey"
    }

同时确保gateway配置中的监听值是lan

保存后执行下方命令检查配置并重启服务

openclaw doctor
openclaw gateway restart

返回企业微信页面,填入URL,格式为:http://<服务器IP/企业备案域名>:18789/webhooks/wxwork

测试

初次使用,可以扫码使用

接入企业微信个人账号&微信个人账号

能拉外部群、内部群、私聊用,不过,也就那样了,拉群里用风险太大,就不写这个教程了

云部署OpenClaw连接本地浏览器

终端执行,会将浏览器插件下载到服务器上

openclaw browser extension install

然后把这个目录下载到电脑上,如果是使用的我同样的SSH工具,可以直接右键文件夹下载

然后打开谷歌浏览器或者Edge浏览器,安装扩展

然后打开CMD命令行,输入下方命令

s

之后会让你输入服务器密码,输入时密码不可见,然后这个CMD窗口不要关

回到浏览器,下图标出来的位置是绿的就行了

然后点一下扩展,会发现图标中有个on的字样,就OK了

后记

如果看了教程也不会的话,可以联系微信AO-XU-OA有偿部署

警告信息!!!

不要将MoltBot接入任何开放的群聊,或提供给多人使用,该程序在部署的系统上几乎有所有的权限,能够随时获取你设备上的一切信息,稍有不慎,便是万丈深渊

举个栗子:偷拍你、种病毒、偷你密钥、玩弄你的浏览器、在你的电脑上播放奇奇怪怪的东西

# 技能网站
clawdhub.ai/skills

# 浏览器控制插件(让机器人安装)
执行npm install -g clawhub
安装agent-brower以及相关的依赖

# 有用的开源地址
https://github.com/justlovemaki/AIClient-2-API
https://github.com/justlovemaki/OpenClaw-Docker-CN-IM


用键盘敲击出的不只是字符,更是一段段生活的剪影、一个个心底的梦想。希望我的文字能像一束光,在您阅读的瞬间,照亮某个角落,带来一丝温暖与共鸣。

氢云

站长

具有版权性

请您在转载、复制时注明本文 作者、链接及内容来源信息。 若涉及转载第三方内容,还需一同注明。

具有时效性

每一步踏实的沉淀,都是未来绽放的伏笔

29 文章数
4 分类数
7 评论数
69标签数