最近,一家名叫DeepSeek的初创公司经过技术迭代与升级,发布了全新一代大模型,“DeepSeek-V3”。由于这款大模型太过好用,DeepSeek R1 更是直接免费开源,在AI发烧友圈子传播后,传到了海外社交平台、技术论坛,引发了海外网友的连连称赞。

各项性能指标更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,关键是开源的,我们可以本地部署使用

1、本地部署,我们可以通过Ollama来进行安装

Ollama 官方版:【点击下载】

安装完成后打开Powershell,然后根据显存大小输入以下命令,安装 DeepSeek

安装命令

1.5B Qwen DeepSeek R1【适合4G显存以下】

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1【适合6G显存以下】

ollama run deepseek-r1:7b

8B Llama DeepSeek R1【适合10G显存以下】

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1【适合12G显存左右】

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1【适合24G显存左右】

ollama run deepseek-r1:32b

70B Llama DeepSeek R1【最高显存】

ollama run deepseek-r1:70b

安装后即可在命令行中直接发消息使用

2、进阶

以上方法虽然可实现DeepSeek了,但它还是Run在命令行下

我们可以为浏览器安装Page Assist这个扩展,实现在浏览器上使用本地模型的功能

打开https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo?pli=1

安装扩展,然后启用,将其固定到工具栏上(可不操作)

然后点击这个扩展,即可享用~

最后修改:2025 年 01 月 27 日
如果觉得我的文章对你有用,请随意赞赏