MacOS格式化后重新安装环境

33次阅读

python

输入python3 –version,会弹出安装提示框

nodejs

网站 https://nodejs.org/
这里可以选择版本安装
MacOS格式化后重新安装环境
一条命令一条命令的进行安装

# Download and install nvm:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash

# in lieu of restarting the shell
\. "$HOME/.nvm/nvm.sh"

# Download and install Node.js:
nvm install 25

# Verify the Node.js version:
node -v # Should print "v25.8.0".

# Verify npm version:
npm -v # Should print "11.11.0".

homebrew

网站 https://brew.sh/zh-cn/

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

openclaw

curl -fsSL https://openclaw.ai/install.sh | bash

设置openclaw为中文

切换语言:进入 Overview → 页面底部 Language → 选择 Simplified Chinese → 刷新页面。

选择模型

MacOS格式化后重新安装环境

设置tavily搜索

获取免费 API 密钥:

访问 app.tavily.com
注册账号并生成 API 密钥
配置方式(任选其一):

方法1: 环境变量

export TAVILY_API_KEY="tvly-你的密钥"

方法2: 配置到 OpenClaw 插件

openclaw configure –section plugins
验证配置:
echo $TAVILY_API_KEY
配置完成后,我可以为您搜索最新财经资讯。Tavily 的财经搜索功能可以获取:

股市动态
汇率变化
宏观经济新闻
行业分析

方式 A:使用交互式配置(推荐)

openclaw configure –section model
然后选择 Ollama 作为提供商。

方式 B:手动设置环境变量

export OLLAMA_API_KEY="ollama-local"

  1. 验证和设置默认模型

    查看可用模型

    openclaw models list

设置默认模型

openclaw models set ollama/glm-4.7-flash

查看状态

openclaw models status

  1. (可选) 修改配置文件
    如果需要持久化配置,可以编辑配置:

openclaw config set agents.defaults.model.primary "ollama/glm-4.7-flash"
⚠️ 注意事项
不要用 /v1 结尾的 URL – OpenClaw 使用 Ollama 原生 API (http://localhost:11434),不是 OpenAI 兼容模式
确保 Ollama 正在运行 – ollama serve
本地模型需要足够内存 – 根据模型大小(7B 约需 8GB,20B 约需 24GB)

你的默认模型已切换为:ollama/qwen3.5:9b(本地运行)

当前会话还在用旧模型(qwen-portal/coder-model),因为它是网关重启前创建的。新会话会自动使用本地模型。

你现在可以:
开始新会话 – 会自动使用 qwen3.5:9b
手动切换模型 – 用 /model ollama/qwen3.5:9b
试试其他本地模型:
ollama/qwen3:8b (更快,更小)
ollama/qwen2.5:32b (更强,但需要更多内存)

正文完
 0