Vocês sabiam que o Cloudflare caiu no mês passado? No dia 18 de novembro, aquela grande interrupção, agora a empresa finalmente forneceu uma análise do incidente.
É um pouco irônico - tudo começou com a geração de um arquivo de configuração errado ao ajustar as permissões do banco de dados, que fez o sistema de proxy central falhar. O CDN caiu, o serviço de segurança caiu, Workers KV, Turnstile, Access, todos falharam. O mais absurdo é que a equipe inicialmente pensou que estava sofrendo um ataque DDoS, e levou um bom tempo até perceber que era um erro deles.
Como foi resolvido no final? Foi uma simples e brusca reversão para os arquivos antigos. O oficial afirmou que esta foi a interrupção mais grave desde 2019, considerando quantos projetos Web3 e DApps dependem dos serviços da CF, o impacto realmente não é pequeno. A vulnerabilidade da infraestrutura centralizada foi mais uma vez colocada em evidência.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
5 gostos
Recompensa
5
5
Republicar
Partilhar
Comentar
0/400
TradFiRefugee
· 3h atrás
Haha, morri de rir, se prejudicando e ainda culpando o DDoS, essa operação é absurda
---
Um erro no arquivo de permissões pode fazer tudo colapsar? A infraestrutura centralizada é isso?
---
Espere, os problemas expostos pelo CF são mais assustadores do que a própria queda
---
Web3 precisa se desvincular desse tipo de falha única, realmente não podemos mais arriscar
---
A pior vez desde 2019 e ainda se atreve a dizer que é estável, ri demais
---
Um erro de configuração pode derrubar tantos serviços, quem vai arcar com esse risco?
---
A justificativa oficial parece absurda, não faz sentido nenhum
---
Os DApps devem ter ficado apavorados naquele dia, se o CF caísse tudo acabava
---
Então essa é a infraestrutura centralizada que eles prezam tanto?
---
Reversão de arquivos antigos resolvido, então não tem nada de tecnologia secreta, né?
Ver originalResponder0
LiquidationSurvivor
· 10h atrás
Ah, isso, realmente é absurdo ter se prejudicado sozinho, ainda pensei que tivesse sido atacado, haha
Serviços centralizados assim, o Web3 realmente precisa aprender com isso
Um erro tão básico no arquivo de configuração pode causar um impacto tão grande, realmente é difícil de aguentar
Ver originalResponder0
WenMoon42
· 10h atrás
Haha, pensei que tinha sido hackeado, mas na verdade o meu arquivo de configuração quebrou, morri de rir.
Ver originalResponder0
GweiObserver
· 10h atrás
Haha, achando que foi atacado, mas foi ele mesmo que se meteu em problemas, que operação incrível
---
Configuração de permissões errada, morte social direta, CDN toda quebrada, que vergonha
---
Mais uma vez provou que infraestrutura centralizada é uma grande armadilha, já era pra estar descentralizado
---
Workers KV completamente GG, os projetos que dependem disso com certeza vão explodir naquele dia
---
Reversão resolve, mas por que não vi um plano de compensação?
---
Eu já disse que coisas centralizadas não são confiáveis, e aqui estamos, explodiu de novo
---
Erro no arquivo de configuração causou a queda da rede inteira, esse tipo de coisa realmente acontece
---
O mais sério desde 2019? Parece que a CF também precisa aprender uma lição.
Ver originalResponder0
OnChainDetective
· 11h atrás
não vou mentir, aquele erro no arquivo de configuração é exatamente o tipo de padrão de risco operacional que já vimos antes—mal diagnosticado como ataque externo primeiro, depois boom, interrupção auto-infligida. jogada clássica, para ser honesto
Vocês sabiam que o Cloudflare caiu no mês passado? No dia 18 de novembro, aquela grande interrupção, agora a empresa finalmente forneceu uma análise do incidente.
É um pouco irônico - tudo começou com a geração de um arquivo de configuração errado ao ajustar as permissões do banco de dados, que fez o sistema de proxy central falhar. O CDN caiu, o serviço de segurança caiu, Workers KV, Turnstile, Access, todos falharam. O mais absurdo é que a equipe inicialmente pensou que estava sofrendo um ataque DDoS, e levou um bom tempo até perceber que era um erro deles.
Como foi resolvido no final? Foi uma simples e brusca reversão para os arquivos antigos. O oficial afirmou que esta foi a interrupção mais grave desde 2019, considerando quantos projetos Web3 e DApps dependem dos serviços da CF, o impacto realmente não é pequeno. A vulnerabilidade da infraestrutura centralizada foi mais uma vez colocada em evidência.