Anthropic mengonfirmasi: sedang menguji model baru dengan tingkat "step change".


Kode nama Mythos, kode internal Capybara. Kebocoran ini tidak disengaja, tetapi modelnya memang nyata.
Bagaimana dengan rilis AI sebelumnya? "Meningkatkan X% pada benchmark XX", "lebih cepat dan lebih murah", "mendukung konteks yang lebih panjang".
Bagaimana deskripsi Mythos? "Jauh di atas kemampuan keamanan siber model AI lain mana pun", "menandai gelombang model yang mampu mengeksploitasi celah dengan cara yang jauh melampaui pertahanan".
Apakah Anda melihat perbedaannya?
Sebelumnya adalah "kami lebih baik". Kali ini adalah "kami cukup kuat sehingga bisa menimbulkan risiko".
Anthropic selalu menjadi perusahaan dengan narasi keamanan AI terkuat. RSP (Responsible Scaling Policy) mereka pada dasarnya membatasi diri—ketika kemampuan model melebihi ambang tertentu, harus menambah langkah keamanan yang sesuai sebelum dirilis.
Mythos mungkin adalah model pertama yang benar-benar memicu peninjauan keamanan tingkat tinggi.
Anthropic mungkin akan sangat berhati-hati dalam jangka pendek. "Akses awal terbatas untuk klien tertentu" + "fokus pada pertahanan keamanan siber". Bukan rilis lengkap untuk konsumen.
Dalam jangka panjang, kurva kemampuan AI mungkin tidak linier. "Step change" berarti loncatan—model sebelumnya ke model ini bukan peningkatan 10%, melainkan perubahan kualitas.
Lihat Asli
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan