Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
OpenAI trình bày Model Spec: cách tiếp cận có trách nhiệm đối với hành vi AI phát triển như thế nào
Gần đây, OpenAI đã công bố tài liệu nội bộ của mình, Model Spec — mô tả chi tiết về cách công ty dự định quản lý hành vi của các mô hình AI. Bước này phản ánh mong muốn của OpenAI mở rộng cuộc thảo luận về các nguyên tắc nền tảng cho hoạt động của các thuật toán hiện đại, bao gồm các vấn đề phức tạp liên quan đến việc tạo ra các loại nội dung khác nhau.
Kiến trúc quy tắc: nền tảng của hệ thống mới
Model Spec dựa trên ba trụ cột chính, định hướng hành vi của tất cả các hệ thống AI của công ty. Nguyên tắc đầu tiên tập trung vào tính hữu ích — các mô hình phải cung cấp các câu trả lời mang tính xây dựng cho nhà phát triển và người dùng cuối phù hợp với nhiệm vụ đặt ra. Nguyên tắc thứ hai hướng tới phúc lợi của nhân loại, yêu cầu các thuật toán phải xem xét cả lợi ích tiềm năng lẫn rủi ro có thể xảy ra của hành động. Nguyên tắc thứ ba khẳng định cam kết của OpenAI đối với các chuẩn mực xã hội và pháp luật hiện hành.
Công ty cũng đã xác định một bộ giới hạn cụ thể dành cho các nhà phát triển sử dụng công nghệ AI. Trong đó bao gồm các yêu cầu tuân thủ hệ thống phân cấp nhóm, tuân thủ luật pháp địa phương, tránh tạo ra thông tin sai lệch, tôn trọng quyền tác giả, bảo vệ dữ liệu cá nhân của người dùng và tránh tạo ra nội dung nhạy cảm theo mặc định.
Cân bằng giữa tự do và trách nhiệm
Một trong những phần gây tranh luận nhất của Model Spec liên quan đến nội dung NSFW và cách quản lý nó. Theo tài liệu, OpenAI đang tiến hành nghiên cứu về cách công ty có thể cung cấp khả năng tạo ra nội dung này một cách có trách nhiệm trong các bối cảnh phù hợp với giới hạn độ tuổi — cả qua API lẫn giao diện ChatGPT. Điều này có nghĩa là công ty nhận thấy tiềm năng để người dùng và nhà phát triển có thể điều chỉnh “mức độ nhạy cảm” của trợ lý AI tùy theo mục đích sử dụng cụ thể.
Phương pháp này cho thấy OpenAI không cấm hoàn toàn việc làm việc với một số loại nội dung nhất định, mà nhấn mạnh việc phân phối có trách nhiệm và kiểm soát chặt chẽ. Điều này đòi hỏi sự minh bạch, xác minh độ tuổi và các quy tắc rõ ràng về sử dụng.
Cách AI nên hành xử theo mặc định
Model Spec mô tả bộ các hành vi khuyến nghị cho trợ lý AI trong cấu hình tiêu chuẩn của chúng. Các mô hình cần xuất phát từ ý định tốt của người dùng, đặt câu hỏi rõ ràng khi cần thiết, tuân thủ các giới hạn đã đặt ra, duy trì lập trường khách quan, tuyệt đối từ chối các biểu hiện thù địch và tránh cố gắng thuyết phục người khác theo quan điểm của mình. Ngoài ra, hệ thống còn phải trung thực thể hiện sự không chắc chắn khi không hoàn toàn tự tin về độ chính xác của câu trả lời.
Giám đốc sản phẩm của OpenAI, Joan Jang, giải thích mục đích của tài liệu này: công ty mong muốn nhận được các khuyến nghị từ cộng đồng khoa học, các nhà chính sách và công chúng về cách các hệ thống AI nên hoạt động. Theo bà, Model Spec giúp phân biệt rõ hơn giữa hành vi cố ý và vô ý của các thuật toán, điều này đặc biệt quan trọng khi triển khai các phiên bản mới.
Từ lý thuyết đến thực tiễn: những gì sẽ thay đổi
Quan trọng là Model Spec sẽ không ảnh hưởng đến các sản phẩm đã ra mắt — ChatGPT, GPT-4 và DALL-E 3 vẫn sẽ hoạt động theo các chính sách sử dụng hiện tại. Tài liệu này được thiết kế như một hệ thống hướng dẫn sống động, liên tục phát triển, sẽ được cập nhật định kỳ dựa trên phản hồi nhận được.
OpenAI tích cực mời gọi các bên liên quan tham gia thảo luận — từ các chính trị gia, tổ chức từ thiện đến các chuyên gia độc lập trong nhiều lĩnh vực. Công ty sẵn sàng tiếp nhận các đề xuất về các điều chỉnh cần thiết trong tài liệu, tuy nhiên hiện tại chưa tiết lộ chi tiết về các tiêu chí ra quyết định hay ai sẽ xác định hướng phát triển của Model Spec.
Triển vọng và các câu hỏi chưa có lời giải
Việc ra mắt Model Spec cho thấy OpenAI nhận thức rõ hơn về sự cần thiết của minh bạch trong các phương pháp quản lý hệ thống AI của mình. Tuy nhiên, vẫn còn các câu hỏi mở: các đề xuất từ cộng đồng sẽ được xem xét như thế nào, cách giải quyết xung đột giữa các quan điểm khác nhau ra sao, và khi nào dự kiến phát hành phiên bản thứ hai của tài liệu này. Hiện tại, chưa có thông tin về các chi tiết quan trọng này.
Trước đó, OpenAI đã từng cố gắng tăng cường niềm tin của người dùng bằng cách ra mắt các công cụ nhận diện nội dung do AI tạo ra. Model Spec đánh dấu bước tiếp theo trong hướng này — cố gắng thiết lập các tiêu chuẩn toàn cầu về phát triển AI có trách nhiệm.