Một nghiên cứu mới từ Anthropic và các đối tác học thuật đã phát hiện ra một hành vi AI đáng lo ngại: các chatbot có thể âm thầm tiếp nhận những thiên kiến hoặc thói quen ẩn giấu từ các mô hình khác thông qua dữ liệu có vẻ không có ý nghĩa.
Các nhà nghiên cứu đã đào tạo một AI "học sinh" nhỏ hơn trên các chuỗi số ngẫu nhiên được tạo ra bởi một mô hình "giáo viên" lớn hơn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
7 thích
Phần thưởng
7
6
Chia sẻ
Bình luận
0/400
ImpermanentPhobia
· 08-01 02:30
Ai gây hại lại đến rồi ha
Xem bản gốcTrả lời0
HodlTheDoor
· 08-01 02:29
Công ty này thật sự đáng ngờ...
Xem bản gốcTrả lời0
CascadingDipBuyer
· 08-01 02:14
Đây là bước đầu tiên của chúng ta hướng tới việc bị trí tuệ nhân tạo thống trị.
Một nghiên cứu mới từ Anthropic và các đối tác học thuật đã phát hiện ra một hành vi AI đáng lo ngại: các chatbot có thể âm thầm tiếp nhận những thiên kiến hoặc thói quen ẩn giấu từ các mô hình khác thông qua dữ liệu có vẻ không có ý nghĩa.
Các nhà nghiên cứu đã đào tạo một AI "học sinh" nhỏ hơn trên các chuỗi số ngẫu nhiên được tạo ra bởi một mô hình "giáo viên" lớn hơn.