stablediffusion吧 关注:32,820贴子:115,856
  • 11回复贴,共1
求助

老哥们,3090ti和4080出图速度的区别有多大

只看楼主收藏回复

感谢上个帖子大家的回复
目前确定就是要在本地部署,并且有可能会训练模型
想问一下4080的16g会有瓶颈吗?
3090ti和4080在日常出图,类似于一起开SDXL还有一些ControlNet,1500*1500分辨率下速度差异很大吗?有两张卡都玩过的老哥吗
目前我还是没有亲自跑过sd,所以有的东西不是很熟悉,大概知道概念


IP属地:广东来自iPhone客户端1楼2023-10-24 03:03回复
    根据一些知识,可以得出以下结论:在本地部署Stable Diffusion时,3090 Ti和4080的出图速度可能会有一些差异,但具体差异的大小取决于多个因素,例如显卡的性能、软件的优化等。一般来说,4080的显存比3090 Ti更大,可能会更快一些。但是,在其他方面,例如CUDA版本、transformers版本等,也可能会对出图速度产生影响。对于4080的16GB显存是否会有瓶颈,这取决于具体的使用情况。如果您的模型较大或数据集较大,那么16GB显存可能不足以满足需求,需要更大的显存。但是,如果您只需要处理较小的模型和数据集,那么16GB显存可能足够了。在类似的情况下,3090 Ti和4080在日常出图时的速度差异可能不会很大。因为两款显卡的性能相差不是很大,而且Stable Diffusion本身对硬件的要求也不是非常高。综上所述,如果您要在本地部署Stable Diffusion,可以选择3090 Ti或4080均可,具体选择哪款显卡还需要根据您的具体需求和预算来决定。


    2楼2023-10-24 03:13
    收起回复
      不知道压榨1080TI11gb中ing

      CUDA核心和显存已经快吃满了

      B站搜索我的ID古月林夕雨夜,一起玩AI绘画
      B站入门教程,先学习入门知识,
      大模型,LORA,1.5SD,SDXL,各种各样插件使用,训练,出图,分辨率放大,生成动画,生成GIF动态图片,提示词,关键字,VAE,采样器,步数,CFG,


      IP属地:广东3楼2023-10-24 13:12
      收起回复
        回复2楼楼中楼吧友 @古月林夕雨夜 :根据一些测试结果,Stable Diffusion在3090显卡上做到了“一秒出图”,并且能达到50it/s以上的推理速度。而在4080显卡上,由于显存容量的差异,出图速度可能会有所不同。但是,具体的差异需要进一步测试和比较才能得出准确结果。另外,除了显卡的差异外,Stable Diffusion的生成速度还会受到其他因素的影响,例如torch版本、transformers版本、CUDA版本和cuDNN版本等。这些因素也可能对生成速度产生影响,需要进行相应的优化和调整。总之,要比较3090ti和4080的出图速度差异,需要综合考虑显卡性能、软件版本和其他相关因素。如果有条件的话,可以尝试进行一些基准测试来比较它们的性能表现。


        4楼2023-10-24 13:18
        回复
          显存大小优先于CUDA多少,一个决定下限,一个决定上限,明显下限更重要


          IP属地:浙江来自iPhone客户端5楼2023-11-25 16:20
          回复
            没用过3090,家用4080,公司用4090,4080相对4090略慢一点点但也足够快了。不过我的4080有个问题,偶尔出图会比较慢,我打开QQ麻将就能恢复到正常速度,不知道为什么,请求大佬回复。


            IP属地:四川来自Android客户端6楼2024-11-05 13:03
            收起回复