Giám đốc robot của OpenAI từ chức vì thương vụ với Pentagon - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai

ИИ-военщина AI war# Giám đốc robot của OpenAI từ chức vì thỏa thuận với Pentagon

Phản ứng trước thỏa thuận gây tranh cãi của OpenAI với Bộ Quốc phòng Mỹ, Caitlin Kalinowski đã rời khỏi vị trí trưởng bộ phận phần cứng của công ty.

«Đây là quyết định không dễ dàng. Trí tuệ nhân tạo đóng vai trò quan trọng trong việc đảm bảo an ninh quốc gia. Nhưng việc theo dõi người Mỹ mà không có lệnh của tòa án và tự do sử dụng vũ khí tự động chết người mà không có sự phê duyệt của con người — là những vấn đề xứng đáng được xem xét kỹ lưỡng hơn hiện tại», — cô viết.

Kalinowski từng làm việc tại Apple về phần cứng máy tính Mac, sau đó chuyển sang Meta, trở thành một trong những kỹ sư chủ chốt của bộ phận Reality Labs. Năm 2024, cô gia nhập OpenAI, đảm nhận vai trò trưởng bộ phận robot và phần cứng tiêu dùng.

Trong tuyên bố của mình, cô nhấn mạnh rằng quyết định này «dựa trên nguyên tắc, chứ không phải về con người», đồng thời bày tỏ «sự tôn trọng sâu sắc» đối với CEO của OpenAI, Sam Altman, và đội ngũ của startup.

«Theo ý kiến của tôi, thông báo này đã được đưa ra vội vàng, mà không xác định rõ giới hạn. Đây chủ yếu là vấn đề quản lý. Chúng quá quan trọng để vội vàng ký kết các thỏa thuận», — Kalinowski nói.

Người phát ngôn của OpenAI nhấn mạnh rằng thỏa thuận với Pentagon «tạo ra lộ trình cho việc sử dụng AI có trách nhiệm trong mục đích an ninh quốc gia, đồng thời rõ ràng xác định các giới hạn đỏ: không có theo dõi nội bộ và vũ khí tự động chết người».

«Chúng tôi hiểu rằng mọi người có những niềm tin vững chắc về các vấn đề này, và chúng tôi sẽ tiếp tục thảo luận với nhân viên, chính phủ và cộng đồng trên toàn thế giới», — ông nói.

Thỏa thuận giữa OpenAI và Pentagon được ký kết vào cuối tháng 2, ngay sau khi các cuộc đàm phán giữa Anthropic và Bộ Quốc phòng đi vào bế tắc.

Ngay sau đó, Altman thừa nhận rằng thỏa thuận đã được thực hiện «vội vàng» và về mặt hình ảnh của startup, «trông không tốt lắm».

Tình hình này đã ảnh hưởng đến sự phổ biến của ChatGPT và Claude. Số lượng lần xóa bỏ chatbot đầu tiên tăng 295%, trong khi chatbot thứ hai vươn lên đứng đầu bảng xếp hạng App Store.

Lượt tải ứng dụng Claude và ChatGPT tại Mỹ. Nguồn: Appfigures.## Cuộc chiến của chính quyền với Anthropic

Tháng 7 năm 2025, Bộ Quốc phòng Mỹ đã ký hợp đồng trị giá lên tới 200 triệu USD với Anthropic, Google, OpenAI và xAI để phát triển các giải pháp AI trong lĩnh vực an ninh.

Tháng 1 năm 2026, WSJ đưa tin về nguy cơ chấm dứt thỏa thuận với Anthropic. Các bất đồng xuất phát từ chính sách đạo đức nghiêm ngặt của startup. Các quy định cấm sử dụng mô hình Claude cho theo dõi quy mô lớn và các hoạt động tấn công tự động chết người.

Tháng 2 năm 2026, quân đội Mỹ đã sử dụng Claude trong chiến dịch bắt giữ Tổng thống Venezuela, Nicolás Maduro, sau đó xung đột trở nên căng thẳng hơn.

CEO của công ty, Dario Amodei, đã gặp Bộ trưởng Quốc phòng Pít Hegset để thảo luận về tình hình. Bộ Quốc phòng đã đưa ra tối hậu thư: Anthropic phải chấp nhận các điều kiện của chính phủ trước ngày 27 tháng 2.

CEO của startup, Dario Amodei, tuyên bố rằng ông sẽ thích không hợp tác với Pentagon hơn là chấp nhận việc sử dụng công nghệ của mình, điều có thể «phá hoại, chứ không phải bảo vệ các giá trị dân chủ».

Vào cuối tháng 2, Tổng thống Mỹ Donald Trump đã chỉ thị tất cả các cơ quan liên bang trong vòng sáu tháng phải hoàn toàn ngừng sử dụng công nghệ của Anthropic.

Ông gọi startup này là «một công ty mất kiểm soát» do những người «không hiểu gì về thế giới thực» điều hành.

Pentagon chính thức công nhận Anthropic là «mối đe dọa đối với chuỗi cung ứng» — điều này đe dọa các doanh nghiệp của công ty với các nhà thầu chính phủ khác. Microsoft và Google tuyên bố sẽ tiếp tục cung cấp sản phẩm của công ty.

Sẽ ra tòa

Amodei tuyên bố công ty của ông sẽ khởi kiện quyết định của Bộ Quốc phòng về việc công nhận công ty là mối đe dọa đối với chuỗi cung ứng. Ông cho rằng quyết định này «không có cơ sở pháp lý», theo doanh nhân.

Trong tuyên bố, ông nói rằng quyết định của Pentagon không ảnh hưởng đến phần lớn khách hàng của Claude.

Theo Amodei, công ty đã có các cuộc đàm phán hiệu quả với Bộ Quốc phòng trong vài ngày, nhưng đã thất bại sau khi rò rỉ một ghi chú nội bộ. Trong đó, CEO mô tả mối quan hệ của OpenAI với bộ này là «hình thức thể hiện an toàn hơn là thực sự bảo vệ khỏi rủi ro».

Amodei xin lỗi về vụ rò rỉ, nói rằng công ty vô tình tiết lộ nội dung của bản ghi nhớ và không ra lệnh cho ai đó làm điều đó.

«Chúng tôi không có lợi gì khi làm tình hình tồi tệ hơn», — ông viết.

Lãnh đạo startup nhấn mạnh rằng tài liệu này được viết trong vòng vài giờ sau loạt thông báo về việc loại bỏ Anthropic khỏi các hệ thống liên bang. Ông xin lỗi về giọng điệu, gọi ngày đó là «ngày khó khăn cho công ty».

Amodei cho biết, bản ghi nhớ này là «đánh giá lỗi thời» và không phản ánh «quan điểm cẩn trọng và cân nhắc». Theo ông, ưu tiên hàng đầu của công ty là đảm bảo các binh sĩ Mỹ và các chuyên gia an ninh quốc gia có quyền truy cập vào các công cụ quan trọng trong các chiến dịch lớn đang diễn ra.

Anthropic sẽ tiếp tục cung cấp các mô hình của mình cho Bộ Quốc phòng «theo giá danh nghĩa» trong thời gian cần thiết.

Cựu cố vấn của Nhà Trắng về trí tuệ nhân tạo, Dinh Boll, nhận định rằng công ty sẽ gặp khó khăn trong việc phản đối quyết định của Pentagon.

«Các tòa án khá ngần ngại xem xét các quyết định của chính phủ về những gì liên quan đến an ninh quốc gia hay không. Để làm được điều đó, cần vượt qua một rào cản rất cao. Nhưng điều đó không phải là không thể», — chuyên gia nói.

Nhắc lại, vào tháng 2, Anthropic đã nới lỏng chính sách an ninh then chốt của mình, giải thích rằng điều này là cần thiết để duy trì khả năng cạnh tranh.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim