LLMs không thông minh.
Chúng được đào tạo để dự đoán từ tiếp theo trong một câu. Chỉ vậy thôi.
Tuy nhiên, ngay cả những nhà nghiên cứu AI hàng đầu thế giới cũng không hoàn toàn hiểu tại sao các mô hình ngôn ngữ lớn lại trở nên thông minh khi được đào tạo trên những nhiệm vụ đơn giản như "dự đoán từ tiếp theo."
Hiện tượng này được gọi là:
Hành vi nổi lên – khả năng phát sinh một cách tự phát từ quy mô
Và không ai hoàn toàn biết tại sao điều đó xảy ra, hoặc giới hạn là gì.
Xem bản gốc