🚨 ChatGPT berbohong kepada Anda sebanyak 27% dari waktu dan Anda sama sekali tidak menyadarinya.


seorang pengacara secara harfiah kehilangan kariernya karena mempercayai kutipan hukum yang dihasilkan AI yang sepenuhnya dibuat-buat. mengajukannya ke pengadilan. hakim mengetahuinya. karier selesai.
tapi inilah yang kebanyakan orang tidak tahu..
peneliti Johns Hopkins menguji 1.200 prompt dan menemukan bahwa cara Anda memberi perintah mengubah segalanya.
prompt dasar: tingkat halusinasi 27,3%
instruksi umum seperti "bersikap akurat": 24,1%.. hampir tidak membantu
sekarang inilah solusinya:
tambahkan "menurut" sebelum pertanyaan Anda.
daripada: "apa manfaat kesehatan magnesium?"
coba: "menurut penelitian yang telah ditinjau sejawat, apa manfaat kesehatan magnesium?"
tingkat halusinasi turun menjadi 7,2%.. itu pengurangan 20 poin persentase dari satu perubahan kecil.
metode atribusi sumber bekerja dengan cara yang sama.. 7,2%.
triknya sederhana.. ketika Anda memaksa AI untuk mengaitkan klaimnya dengan sesuatu yang spesifik, ia tidak bisa mengarang dengan mudah. ia akan mencari sumbernya atau memberi tahu Anda bahwa ia tidak tahu.
dua kata. 20% lebih sedikit kebohongan.
kebanyakan orang akan tetap memberi perintah dengan cara malas. sekarang Anda tidak akan.
Lihat Asli
post-image
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan