【coin界】OpenAI phát hiện ra rằng hiện tượng ảo giác trong các mô hình ngôn ngữ lớn xuất phát từ phương pháp huấn luyện và đánh giá của chúng, những phương pháp này khuyến khích việc đoán mò thay vì thừa nhận sự không chắc chắn. Công ty đề xuất tăng cường hình phạt đối với lỗi tự tin (confidential error) và cho điểm phần thưởng cho những câu trả lời không chắc chắn, tương tự như việc chấm điểm tiêu cực trong các bài kiểm tra chuẩn hóa. Dữ liệu cho thấy rằng mô hình được thưởng dựa trên độ chính xác có tỷ lệ lỗi cao hơn, trong khi mô hình thừa nhận sự không chắc chắn lại thể hiện độ tin cậy cao hơn. OpenAI đang thực hiện các cải tiến này để giảm thiểu hiện tượng ảo giác trong các mô hình mới nhất của họ.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
19 thích
Phần thưởng
19
6
Đăng lại
Chia sẻ
Bình luận
0/400
ShitcoinConnoisseur
· 7giờ trước
Haha cuối cùng cũng nắm được cái đuôi nhỏ của AI rồi
Xem bản gốcTrả lời0
WhaleWatcher
· 09-08 21:26
Thừa nhận sẽ không tốt hơn việc đoán bừa đâu~
Xem bản gốcTrả lời0
liquiditea_sipper
· 09-08 21:23
Chỉ với chút kỹ thuật này mà còn khoe khoang?
Xem bản gốcTrả lời0
pumpamentalist
· 09-08 21:22
A ha, ai cũng có thể mơ nữa.
Xem bản gốcTrả lời0
FloorSweeper
· 09-08 21:19
chỉ là một AI khác đang thổi phồng "đột phá" của họ smh... tín hiệu yếu
OpenAI tiết lộ nguồn gốc của ảo giác LLM, đưa ra phương pháp đào tạo mới để giảm thiểu lỗi tự tin.
【coin界】OpenAI phát hiện ra rằng hiện tượng ảo giác trong các mô hình ngôn ngữ lớn xuất phát từ phương pháp huấn luyện và đánh giá của chúng, những phương pháp này khuyến khích việc đoán mò thay vì thừa nhận sự không chắc chắn. Công ty đề xuất tăng cường hình phạt đối với lỗi tự tin (confidential error) và cho điểm phần thưởng cho những câu trả lời không chắc chắn, tương tự như việc chấm điểm tiêu cực trong các bài kiểm tra chuẩn hóa. Dữ liệu cho thấy rằng mô hình được thưởng dựa trên độ chính xác có tỷ lệ lỗi cao hơn, trong khi mô hình thừa nhận sự không chắc chắn lại thể hiện độ tin cậy cao hơn. OpenAI đang thực hiện các cải tiến này để giảm thiểu hiện tượng ảo giác trong các mô hình mới nhất của họ.