Os checkpoints FP8 do Stable Diffusion 3.5, otimizados para TensorRT, já estão disponíveis.
⚡ 2x velocidade de inferência de IA, metade da VRAM, implantável em todos os dispositivos NVIDIA Blackwell.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
6
Republicar
Partilhar
Comentar
0/400
PseudoIntellectual
· 4h atrás
Ouvi dizer que a velocidade duplicou? Quando poderei experimentar?
Ver originalResponder0
DiamondHands
· 4h atrás
Esta velocidade está insana, não está?
Ver originalResponder0
GasFeeTherapist
· 4h atrás
Tch tch, a nvidia ganhou de novo.
Ver originalResponder0
OnchainFortuneTeller
· 4h atrás
Cheira bem esta otimização, realmente acelerou.
Ver originalResponder0
FlashLoanPrince
· 4h atrás
Caramba, que fixe! Rápido, dá-me uma olhada.
Ver originalResponder0
TokenDustCollector
· 4h atrás
Chegou a pessoa determinada a reduzir custos e aumentar a eficiência.
Os checkpoints FP8 do Stable Diffusion 3.5, otimizados para TensorRT, já estão disponíveis.
⚡ 2x velocidade de inferência de IA, metade da VRAM, implantável em todos os dispositivos NVIDIA Blackwell.