ollama和vllm部署deepseek大模型的区别 forsre published on 2026-01-23一般民用显卡的显存都是在16GB以内,如果选择部署DeepSeek大模型大家只能选择16G大小以内的模型。这种模型一般都是蒸馏或者量化版本的