本地部署deepseek14b和32b模型解答strawberry有几个r对比。由于我电脑配置低,oculink pcie3.0*4外接4080 16GB显存不够32b模型直接运行需要额外5GB内存才能运行,所以运行速度慢一点,几乎是逐字出字,不好刚好够我实时阅读的。14b只需要10GB显存,生成速度一段一段跳出来。回答草莓strawberry有几个r的问题都是正确的,只是不知道为啥14b出来的是英文回答。可能是我在同时安装32b和14b,切换模型的时候14b是临时加载进显存运算的,不知道是不是有影响。整体来看低配12GB显存电脑用14b就可以了。20GB显存显卡以上的可以用32b模型



