Apakah kalian tahu bahwa Cloudflare mengalami gangguan bulan lalu? Pada tanggal 18 November terjadi pemadaman besar, dan sekarang pihak resmi akhirnya memberikan analisis kejadian tersebut.
Agak ironis untuk dibicarakan - penyebabnya adalah saat mengubah izin basis data, sebuah file konfigurasi yang salah dibuat, yang langsung membuat sistem proxy inti runtuh. CDN down, layanan keamanan down, Workers KV, Turnstile, Access semuanya mati total. Yang lebih konyol adalah tim awalnya mengira mereka menghadapi serangan DDoS, setelah berjuang setengah hari baru menyadari bahwa mereka sendiri yang membuat masalah.
Bagaimana akhirnya diperbaiki? Dengan cara yang sederhana dan langsung mengembalikan file lama. Pihak resmi mengatakan ini adalah gangguan terparah sejak 2019, mengingat berapa banyak proyek Web3 dan DApp yang bergantung pada layanan CF, dampaknya memang cukup besar. Kerentanan infrastruktur terpusat sekali lagi diperlihatkan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
5 Suka
Hadiah
5
6
Posting ulang
Bagikan
Komentar
0/400
ChainSherlockGirl
· 3jam yang lalu
Haha, lucu banget, file konfigurasi saya membuat saya terjatuh, saya kasih nilai sempurna untuk skenario ini.
Memang benar "DDoS? Tidak ada, kami adalah self-DDoS", reaksi resmi juga luar biasa.
Ekosistem Web3 sekali lagi diingatkan, seberapa besar perbedaan antara idealisme desentralisasi dan kenyataan, lihat saja data transaksi hari itu dari tumpukan alamat dompet di on-chain.
Infrastruktur terpusat memang pedang bermata dua, memang praktis, tapi jika hancur semua ikut terpuruk.
Lihat AsliBalas0
TradFiRefugee
· 7jam yang lalu
Haha, lucu banget, diri sendiri menggali lubang tapi menyalahkan DDoS, ini benar-benar luar biasa
---
Apakah kesalahan file izin bisa menyebabkan seluruh sistem runtuh? Infrastruktur terpusat seperti ini?
---
Tunggu, masalah yang terungkap oleh CF ini lebih menakutkan daripada downtime itu sendiri
---
Web3 harus segera terlepas dari titik kegagalan tunggal ini, benar-benar tidak bisa berjudi lagi
---
Ini adalah yang terburuk sejak 2019, masih berani bilang stabil, lucu
---
Satu kesalahan konfigurasi bisa mematikan begitu banyak layanan, siapa yang akan menanggung risiko ini?
---
Alasan yang diberikan oleh pihak resmi terdengar konyol, sama sekali tidak masuk akal
---
DApp pasti ketakutan hari itu, CF down dan semuanya berakhir
---
Jadi ini adalah infrastruktur terpusat yang mereka sayangi?
---
Rollback file lama dan selesai, jadi sebenarnya tidak ada teknologi canggih ya
Lihat AsliBalas0
LiquidationSurvivor
· 15jam yang lalu
Ah ini, benar-benar konyol karena saya sendiri yang membuat diri saya terjebak, saya pikir saya dipukul haha
Layanan terpusat seperti ini, Web3 memang harus mengambil pelajaran
Kesalahan tingkat rendah seperti ini dalam file konfigurasi dapat menyebabkan dampak yang begitu besar, memang tidak bisa ditahan.
Lihat AsliBalas0
WenMoon42
· 15jam yang lalu
Haha, saya kira saya di-hack, ternyata file konfigurasi saya yang rusak, sangat lucu.
Lihat AsliBalas0
GweiObserver
· 15jam yang lalu
Hahaha, mengira diserang padahal itu ulah sendiri, benar-benar gila
---
Kesalahan dalam pengaturan izin langsung menyebabkan kematian sosial, CDN semua hancur, betapa malunya ini
---
Sekali lagi membuktikan bahwa infrastruktur terpusat adalah lubang besar, sudah saatnya untuk terdesentralisasi
---
Workers KV seluruhnya GG, proyek yang bergantung pada bagian ini pasti akan meledak pada hari itu
---
Rollback sudah cukup, kenapa tidak melihat rencana kompensasi?
---
Saya bilang barang terpusat tidak dapat diandalkan, sekarang ini terjadi lagi
---
Kesalahan file konfigurasi menyebabkan seluruh jaringan down, hal seperti ini benar-benar bisa terjadi
---
Yang terparah sejak 2019? Sepertinya CF juga harus lebih ingat sekarang
Lihat AsliBalas0
OnChainDetective
· 15jam yang lalu
jujur saja, kesalahan pada file konfigurasi itu adalah pola risiko operasional yang persis seperti yang pernah kita lihat sebelumnya—salah diidentifikasi sebagai serangan eksternal terlebih dahulu, lalu boom, pemadaman yang disebabkan sendiri. langkah klasik sejujurnya.
Apakah kalian tahu bahwa Cloudflare mengalami gangguan bulan lalu? Pada tanggal 18 November terjadi pemadaman besar, dan sekarang pihak resmi akhirnya memberikan analisis kejadian tersebut.
Agak ironis untuk dibicarakan - penyebabnya adalah saat mengubah izin basis data, sebuah file konfigurasi yang salah dibuat, yang langsung membuat sistem proxy inti runtuh. CDN down, layanan keamanan down, Workers KV, Turnstile, Access semuanya mati total. Yang lebih konyol adalah tim awalnya mengira mereka menghadapi serangan DDoS, setelah berjuang setengah hari baru menyadari bahwa mereka sendiri yang membuat masalah.
Bagaimana akhirnya diperbaiki? Dengan cara yang sederhana dan langsung mengembalikan file lama. Pihak resmi mengatakan ini adalah gangguan terparah sejak 2019, mengingat berapa banyak proyek Web3 dan DApp yang bergantung pada layanan CF, dampaknya memang cukup besar. Kerentanan infrastruktur terpusat sekali lagi diperlihatkan.