DeepSeek AI由于其先进的功能,低API成本,推理能力和开源性质而变得流行。但是,一些用户担心中国公司开发的隐私和数据共享。也有指控机器人审查信息。
如果您想尝试但是担心您的数据和隐私,最好的选择是将其安装在设备上并离线运行。这样,它就不会连接到云或互联网,并且您的数据只会存储在您的设备上。
广告
此外,在本地安装它意味着您不需要Internet,因此您可以随时随地使用AI。由于没有任何网络延迟,因此此设置还将改善性能和响应时间。但是,此方法可能会影响AI的整体性能和可靠性。
要在计算机上使用DeepSeek AI离线,您只需要安装LM Studio或Ollama应用程序即可。它不需要任何技术技能即可在计算机上运行,并且非常易于使用。
第一种方法:使用LM Studio运行DeepSeek AI离线
1。下载LM Studio版本0.3或更高版本,并将其安装在计算机上。
2。安装后,启动LM Studio,单击“搜索”图标(Discover Button),从列表中选择“ DeepSeek R1 Distill(Qwen 7b)”,然后单击“下载”按钮。 [文件大小约为4.5GB,因此可能需要一些时间才能下载]
3。下载完成后,单击“聊天”图标,然后选择“选择要加载的模型”(或按CTRL+L)。
4。选择DeepSeek R1,然后单击“加载模型”。
现在,您可以在本地和离线使用DeepSeek R1。如果遇到任何错误,请返回步骤3,然后将“ GPU卸载”滑块移至最小值或零以解决问题。
方法2:使用Ollama脱机运行DeepSeek AI
1。下载霍拉马并将其安装在计算机上。
2。终端窗口将打开。复制下面的命令,将其粘贴到终端中,然后按Enter:
ollama run deepseek-r1:1.5b
3。它将开始下载LLM,一旦安装完成,您就可以开始与DeepSeek R1聊天。
4。要退出DeepSeek,只需关闭终端或按“ Ctrl+d。”。
结论
上面给定的是两种简单的方法,可以在设备上安装和运行DeepSeek AI。由于该模型未直接连接到Internet,因此偶尔可能会提供不正确的事实或答案。因此,最好仅将AI机器人用于一般目的。
对于更高级的功能,请考虑使用网络或应用程序版本。尽管本地安装有助于保护您的数据,但它可能在整体性能和可靠性方面存在一些限制。
广告