OpenAI trình bày Model Spec: cách tiếp cận có trách nhiệm đối với hành vi AI phát triển như thế nào

Gần đây, OpenAI đã công bố tài liệu nội bộ của mình, Model Spec — mô tả chi tiết về cách công ty dự định quản lý hành vi của các mô hình AI. Bước này phản ánh mong muốn của OpenAI mở rộng cuộc thảo luận về các nguyên tắc nền tảng cho hoạt động của các thuật toán hiện đại, bao gồm các vấn đề phức tạp liên quan đến việc tạo ra các loại nội dung khác nhau.

Kiến trúc quy tắc: nền tảng của hệ thống mới

Model Spec dựa trên ba trụ cột chính, định hướng hành vi của tất cả các hệ thống AI của công ty. Nguyên tắc đầu tiên tập trung vào tính hữu ích — các mô hình phải cung cấp các câu trả lời mang tính xây dựng cho nhà phát triển và người dùng cuối phù hợp với nhiệm vụ đặt ra. Nguyên tắc thứ hai hướng tới phúc lợi của nhân loại, yêu cầu các thuật toán phải xem xét cả lợi ích tiềm năng lẫn rủi ro có thể xảy ra của hành động. Nguyên tắc thứ ba khẳng định cam kết của OpenAI đối với các chuẩn mực xã hội và pháp luật hiện hành.

Công ty cũng đã xác định một bộ giới hạn cụ thể dành cho các nhà phát triển sử dụng công nghệ AI. Trong đó bao gồm các yêu cầu tuân thủ hệ thống phân cấp nhóm, tuân thủ luật pháp địa phương, tránh tạo ra thông tin sai lệch, tôn trọng quyền tác giả, bảo vệ dữ liệu cá nhân của người dùng và tránh tạo ra nội dung nhạy cảm theo mặc định.

Cân bằng giữa tự do và trách nhiệm

Một trong những phần gây tranh luận nhất của Model Spec liên quan đến nội dung NSFW và cách quản lý nó. Theo tài liệu, OpenAI đang tiến hành nghiên cứu về cách công ty có thể cung cấp khả năng tạo ra nội dung này một cách có trách nhiệm trong các bối cảnh phù hợp với giới hạn độ tuổi — cả qua API lẫn giao diện ChatGPT. Điều này có nghĩa là công ty nhận thấy tiềm năng để người dùng và nhà phát triển có thể điều chỉnh “mức độ nhạy cảm” của trợ lý AI tùy theo mục đích sử dụng cụ thể.

Phương pháp này cho thấy OpenAI không cấm hoàn toàn việc làm việc với một số loại nội dung nhất định, mà nhấn mạnh việc phân phối có trách nhiệm và kiểm soát chặt chẽ. Điều này đòi hỏi sự minh bạch, xác minh độ tuổi và các quy tắc rõ ràng về sử dụng.

Cách AI nên hành xử theo mặc định

Model Spec mô tả bộ các hành vi khuyến nghị cho trợ lý AI trong cấu hình tiêu chuẩn của chúng. Các mô hình cần xuất phát từ ý định tốt của người dùng, đặt câu hỏi rõ ràng khi cần thiết, tuân thủ các giới hạn đã đặt ra, duy trì lập trường khách quan, tuyệt đối từ chối các biểu hiện thù địch và tránh cố gắng thuyết phục người khác theo quan điểm của mình. Ngoài ra, hệ thống còn phải trung thực thể hiện sự không chắc chắn khi không hoàn toàn tự tin về độ chính xác của câu trả lời.

Giám đốc sản phẩm của OpenAI, Joan Jang, giải thích mục đích của tài liệu này: công ty mong muốn nhận được các khuyến nghị từ cộng đồng khoa học, các nhà chính sách và công chúng về cách các hệ thống AI nên hoạt động. Theo bà, Model Spec giúp phân biệt rõ hơn giữa hành vi cố ý và vô ý của các thuật toán, điều này đặc biệt quan trọng khi triển khai các phiên bản mới.

Từ lý thuyết đến thực tiễn: những gì sẽ thay đổi

Quan trọng là Model Spec sẽ không ảnh hưởng đến các sản phẩm đã ra mắt — ChatGPT, GPT-4 và DALL-E 3 vẫn sẽ hoạt động theo các chính sách sử dụng hiện tại. Tài liệu này được thiết kế như một hệ thống hướng dẫn sống động, liên tục phát triển, sẽ được cập nhật định kỳ dựa trên phản hồi nhận được.

OpenAI tích cực mời gọi các bên liên quan tham gia thảo luận — từ các chính trị gia, tổ chức từ thiện đến các chuyên gia độc lập trong nhiều lĩnh vực. Công ty sẵn sàng tiếp nhận các đề xuất về các điều chỉnh cần thiết trong tài liệu, tuy nhiên hiện tại chưa tiết lộ chi tiết về các tiêu chí ra quyết định hay ai sẽ xác định hướng phát triển của Model Spec.

Triển vọng và các câu hỏi chưa có lời giải

Việc ra mắt Model Spec cho thấy OpenAI nhận thức rõ hơn về sự cần thiết của minh bạch trong các phương pháp quản lý hệ thống AI của mình. Tuy nhiên, vẫn còn các câu hỏi mở: các đề xuất từ cộng đồng sẽ được xem xét như thế nào, cách giải quyết xung đột giữa các quan điểm khác nhau ra sao, và khi nào dự kiến phát hành phiên bản thứ hai của tài liệu này. Hiện tại, chưa có thông tin về các chi tiết quan trọng này.

Trước đó, OpenAI đã từng cố gắng tăng cường niềm tin của người dùng bằng cách ra mắt các công cụ nhận diện nội dung do AI tạo ra. Model Spec đánh dấu bước tiếp theo trong hướng này — cố gắng thiết lập các tiêu chuẩn toàn cầu về phát triển AI có trách nhiệm.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim