想要本地部署大模型?来看这篇!
想要本地部署大模型?来看这篇!
原始链接
本文档从Gitee Issue自动生成,原文地址:Issue #ID9NLD
你好,我又来分享知识了,这次教大家如何本地部署大语言模型。
访问https://ollama.com/,点击Download,根据自己的系统进行下载安装。
Linux可以直接运行这条命令。
1
curl -fsSL https://ollama.com/install.sh | sh
安装好后重启,运行ollama serve启动Ollama。
保持Ollama在后台,在Ollama网站的搜索框搜索你想要的模型,比如qwen3。
选择适合的模型大小,点击复制按钮复制命令,把命令粘贴在终端,等待一会,Ollama的模型就下载好啦!
随便输入点问题,看看模型能否回答。
输入/quit就能退出了。
本文由作者按照 CC BY 4.0 进行授权