LM Studio是一個允許您的工具運行本地大型語言模型(LLM)在您的計算機上。關於此實用程序的最好的事情之一是,它允許您在本地運行模型以確保最大的隱私。在本指南中,我們將配置LM Studio在離線PC上使用多個AI,因此,如果您有興趣,請繼續閱讀。
配置LM Studio在離線PC上使用多個AI
LM Studio允許您在計算機上下載和運行大型語言模型,而無需互聯網。它通過在本地處理所有內容來幫助您保持數據私密。有了它,您可以將多個AI模型用於內容創建和數據分析等任務。如果要配置LM Studio在離線PC上使用多個AI,請按照下面的步驟進行操作。
- 安裝LM Studio
- 安裝多個型號
- 開始使用模型
讓我們詳細討論它們。
1]安裝LM工作室
首先,我們需要從其官方網站獲取LM Studio工具。因此,您需要去lmstudio.ai。由於我正在使用Windows,我會選擇下載用於Windows的LM Studio,但是根據您的平台,您需要下載LM Studio版本。完成後,這將觸發尊敬的EXE文件的下載。
下載LM Studio安裝媒體後,請雙擊它,然後選擇要安裝應用程序的用戶。如果要為所有用戶安裝它,則需要訪問管理員,因為它將獲得UAC提示。由於我有訪問權限,因此我這樣做了,然後選擇了該文件夾,最後啟動了該應用程序。
2]安裝多個型號
啟動LM Studio後,將提示您下載第一個LLM型號,請單擊獲得第一個LLM,然後下載建議的模型。如果您要選擇自己的型號,請單擊跳過登機。
要下載任何LLM型號,您需要單擊發現(放大鏡)圖標。現在,搜索要下載的模型。 LM Studio最好的事情之一是它檢查您的系統詳細信息,並告訴您該機器是否太大。例如,DeepSeek編碼器V2 Lite對於我的設備來說太大了,而致電3.2 1B會順利運行。
一旦知道哪種型號將在機器上工作,請單擊下載圖標,讓它下載模型。根據您的網絡帶寬,可能需要一些時間。
這將下載LLM模型以及運行時。但是,如果您想升級到其他型號,就我而言,我想安裝cpu llama.cpp,因為我沒有強大的GPU和GPU-ACCELERATY,而GPU-Acceleration並不是我的機器可以處理的東西,我去了運行時標籤,然後單擊更新按鈕旁邊是運行時模型。
為了下載另一個模型,你需要去發現再次按鈕,查找要下載的模型。然後,單擊下載與之關聯的按鈕。等待幾分鐘下載您的模型。下載後,您可以轉到運行時下載任何更新(如果有),如果需要,然後您要做的就是單擊負載模型。這將在您的計算機上本地啟動該模型的服務器。
注意:如果您在不啟動模型的情況下關閉了發現提示,請轉到屏幕左下角的下載圖標,然後選擇與模型關聯的負載模型。
3]開始使用模型
下載模型後,您需要做的就是轉到聊天圖標。然後,查看窗口的頂部,您將看到所有模型,請單擊模型您想選擇的。
您甚至可以在使用模型之前更改模型的偏好。為此,單擊模型旁邊的側箭頭,然後更改設置,例如GPU卸載,CPU線程池大小,上下文長度,和其他選項。完成後,只需單擊負載模型。
加載模型後,轉到聊天機器人並開始與AI模型聊天。確保注意窗口右下角的RAM和CPU計數。
希望在本指南的幫助下,您將能夠在LM Studio中運行多個LLM型號。但是,還有其他您也應該檢查它們。
讀:
LM Studio脫機工作嗎?
是的,LM Studio離線工作。下載了必要的型號和運行時,您可以完全不使用Internet連接。所有處理均在您的計算機上本地進行,以確保您的數據保持私密。
讀:
LM Studio需要多少RAM?
LM Studio中的每個型號都有不同的RAM要求。但是,如果您想在沒有問題的情況下運行任何模型,我們建議您至少有16 GB的RAM。此外,如果您有能力添加GPU,請執行此操作。
另請閱讀:。