Chúng được đào tạo để dự đoán từ tiếp theo trong một câu. Chỉ vậy thôi.
Tuy nhiên, ngay cả những nhà nghiên cứu AI hàng đầu thế giới cũng không hoàn toàn hiểu tại sao các mô hình ngôn ngữ lớn lại trở nên thông minh khi được đào tạo trên những nhiệm vụ đơn giản như "dự đoán từ tiếp theo."
Hiện tượng này được gọi là: Hành vi nổi lên – khả năng phát sinh một cách tự phát từ quy mô
Và không ai hoàn toàn biết tại sao điều đó xảy ra, hoặc giới hạn là gì.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
LLMs không thông minh.
Chúng được đào tạo để dự đoán từ tiếp theo trong một câu. Chỉ vậy thôi.
Tuy nhiên, ngay cả những nhà nghiên cứu AI hàng đầu thế giới cũng không hoàn toàn hiểu tại sao các mô hình ngôn ngữ lớn lại trở nên thông minh khi được đào tạo trên những nhiệm vụ đơn giản như "dự đoán từ tiếp theo."
Hiện tượng này được gọi là:
Hành vi nổi lên – khả năng phát sinh một cách tự phát từ quy mô
Và không ai hoàn toàn biết tại sao điều đó xảy ra, hoặc giới hạn là gì.