DeepSeek本地部署+WebUI可视化+数据投喂训练AI之新手保姆级教程.pdf
DeepSeek本地部署+WebUI可视化+数据投喂训练AI之新手保姆级
教程
最近国产大模型DeepSeek特别火,以至于频繁出现反应迟缓甚至宕机的情况,和两年
多之前ChatGPT的遭遇颇为相似。
万幸,DeepSeek是一个开源模型,我们大可以通过本地部署,在自己的终端上随时使
用!接下来就教大家具体的操作:
一、DeepSeek本地部署
二、WebUI可视化
三、数据投喂训练AI
一、DeepSeek本地部署
1、安装Ollama
首先我们需要安装Ollama,它可以在本地运行和管理大模型。
到Ollama官网https//,点击下载,然后选择适合自己系统的版本,这里选择Windows:
安装完成后,打开命令行界面并输入
1ollama
如果屏幕上出现以下提示信息,那么恭喜你,Ollama已经成功安装。
2、部署DeepSeekR1模型
首先,访问Ollama官网并点击页面顶部的「模型」(Models)选项,接着在列表中找到并点
击「DeepSeekR1」:
在模型详情页面,根据我们计算机的显存容量选择合适的模型版本:
例如,我的电脑运行的是Windows系统,拥有4GB的显存,因此我选择了1.5b版本的模
型。点击1.5b版本,页面右侧将显示下载指令:
将此下载命令复制并粘贴到命令行中执行开始下载:
待命令执行完毕,就可以通过命令行与DeepSeek大模型进行交互了:
但是在命令行窗口下对话,还是太抽象,我们需要一个美观的图文交互界面。
二、WebUI可视化
WebUI可视化选择直接在浏览器安装PageAssist插件的方式来实现。
PageAssist是本地AI模型的WebUI,可以使用本地运行的AI模型来辅助进行网络浏
览,利用本地运行的AI模型,在浏览网页时进行交互,或者作为本地AI模型提供者(如Ollama、
ChromeAI等)的网页界面。
仓库地址:https///n4ze3m/assist
当前功能:
-各类任务的侧边栏
-支持视觉模型
-本地AI模型的简约网页界面
-网络搜索功能
-在侧边栏与PDF进行对话
-与文档对话(支持pdf、csv、txt、md、docx格式)
要把DeepSeek可视化,首先在扩展中的管理扩展页面,搜索找到PageAssist
然后点击获取PageAssist
获取完成后,就可以在扩展中看到PageAssist插件,点击对应的插件就可以直接使用。
进入插件后,选择我们上面下载好的deepseek模型,然后就可以跟DeepSeek进行可视
化对话了,如果需要获取最新的数据,需要打开下方的联网开关。
到这里,DeepSeek的WebUI可视化就完成了。
三、数据投喂训练AI
实现数据投喂训练AI,需要下载nomic-embed-text和安装AnythingLLM。
下载nomic-embed-text:
在终端输入ollamapullnomic-embed-text回车下载nomic-embed-text嵌入式模型
(后面做数据投喂会用到)。
安装AnythingLLM:
进入官网,选择对应系统版本的安装包进行下载
选择【所有用户】点击下一步。
修改路径地址中的首字符C可更改安装位置,本例安装到F盘,点击下一步。
点击完成。
软件打开后,点击【Getstarted】。
点击箭头,进行下一步。
输入工作区名称,点击下一步箭头。
点击【设置】,里面可以设置模型、界面显示语言等。
若软件显示英文,可在Customization外观定制里面选择Chinese即可。
AnythingLLM设置
在软件设置里面,LLM首选项界面,提供商选择Ollama,OllamaModel选择你前面下
载的DeepSeek-R1系列模型1.5b~671b,然后点击Savechanges。
在Embedder首选项界面,嵌入引擎提供商选择Ollama,OllamaEmbeddingMode
选择【nomic-embed-text】,然后点击保存更改。
①点击【工作区设置】,②点击聊天