环境 windows server GPU 32G 内存 40G 升级ollama 需要版本 0.6.6以上 ollama --version 拉取模型 ollama pull qwen3:32b 时间比较长,耐心等待 运行模型 ollama run qwen3:32b 运行起来之后发现GPU是可以跑起来的,发个你好看看 默认是深度思考的,不想深度思考,加上/no_think 又想深度思考了,加上/think即可