如何半小时内在本地部署大模型



前几天,我突发奇想,能否在本地部署一个大模型?

毕竟有一个刻板印象,大模型基于至少几十亿的参数,需要强大的计算资源,不是个人电脑可以承担的。

没想到搜了一下,果然是可以的。

原来,有一个基于开源制作的大模型框架Ollama,可以使用PC或Macbook作为主机,实现轻量级地配置。

于是试了一下,虽然有些小坑,不过整体过程还是很顺利的,不到一小时就完成了部署和使用。

下面简单介绍下整个部署过程。

Ollama有mac、linux、Windows三个版本。第一次为了安全起见,用的是家里带有GPU的台式PC,先保证不会跑崩。我自己日常主力在用的是一台macbook,暂时不去折腾。

如果能在Windows上成功部署,那么在mac、linux上基本是没有问题的,因为Ollama在这两个平台上更加成熟稳定,Windows版本是最近几个月才发布的预览版。

整个下载安装过程非常简单。

第一步:下载并安装Ollama 到官网(https://ollama.com/)下载对应版本的Ollama,整个过程跟下载一个普通软件一样。

确认是否安装成功 img_v3_02ap_64798090-00e0-4289-b957-1b0126f7c05g.jpg

第二步:下载安装模型

在Ollama上已经支持Llama3, Mistral, Gemma等主流大模型。这里以llama2-Chinese为例,下载并安装该模型。

ollama pull llama2-chinese

img_v3_02ap_b07c0d06-ae96-40a6-82ce-d4071fdd604g.jpg

到这一步,其实已经安装完成了。

下面就是体验使用。

img_v3_02ap_0b611ca0-7b7e-40a0-9fdf-526fc04a7dcg.jpg

img_v3_02ap_d238571f-7afd-44c5-b889-414a4314a23g.jpg

img_v3_02ap_4da093c5-d0d0-4a2a-ab14-14c7a2ff1adg.jpg

截止到目前,我们都是在终端里使用的。下一步,就是套一个前端界面的壳,让整个使用交互更加直观友好。

我使用的是oterm。

但是这里我踩了坑,花了几十分钟,尝试了各种方案,总是安装不好。 img_v3_02ap_7fcb5f23-22bd-4334-a3e3-f806ed80ca1g.jpg

很明显是本地host地址和端口问题,但限于本人可怜的计算机知识,试了各种处理解法,还是报错。

暂且先到这里。