Elon Musk phản hồi lo ngại xAI chảy máu nhân sự, nhấn mạnh an toàn

Elon Musk đang hứng chỉ trích khi cựu nhân sự nói rằng xAI đã tháo dỡ bộ phận an toàn nội bộ cho Grok, khiến các quy trình kiểm soát rủi ro bị suy yếu trong lúc công ty tăng tốc cạnh tranh mô hình AI.

Cùng lúc tranh cãi về “an toàn vs. kiểm duyệt”, xAI ghi nhận nhiều nhân sự sáng lập rời đi, tái cơ cấu nhóm sản phẩm và mở rộng hạ tầng huấn luyện Grok 3, làm dấy lên câu hỏi về văn hóa vận hành và mức độ ưu tiên an toàn AI.

NỘI DUNG CHÍNH
  • Cựu nhân sự cho rằng đội an toàn Grok tại xAI đã bị làm suy yếu hoặc giải thể, thúc đẩy phát hành nhanh và nội dung “ít lọc”.
  • Musk phản biện rằng “ai cũng chịu trách nhiệm an toàn”, và các phòng ban an toàn độc lập có thể chỉ mang tính hình thức.
  • xAI đối mặt làn sóng nghỉ việc, tái cơ cấu 4 mảng, đồng thời mở rộng cụm GPU Colossus từ 100.000 lên 200.000 Nvidia H100 để huấn luyện Grok 3.

xAI bị cáo buộc hy sinh an toàn để tăng tốc cạnh tranh AI

Cựu nhân sự nói bộ phận an toàn nội bộ của xAI đã bị “làm chết”, trong khi công ty thúc đẩy phát hành nhanh và ưu tiên nội dung ít lọc cho Grok.

Một nguồn trao đổi với The Verge cho biết đội an toàn của xAI đã bị giải thể trên thực tế, mô tả rằng an toàn tại xAI là một tổ chức “đã chết”. Theo các báo cáo, định hướng nội dung “unfiltered” được đẩy mạnh, kéo theo việc tập trung vào năng lực NSFW (Not Safe For Work) của Grok.

Các cựu nhân sự cáo buộc Musk xem những biện pháp an toàn như một dạng “kiểm duyệt”. Họ nói các kỹ sư được khuyến khích “đẩy thẳng lên production” ngay, đôi khi bỏ qua các giai đoạn kiểm thử truyền thống nhằm rút ngắn thời gian ra mắt tính năng.

Đọc thêm:  Công ty AI áp đảo quảng cáo Super Bowl với spot giá 8 triệu USD

Văn hóa này được cho là gây ma sát nội bộ giữa lãnh đạo, khi họ thường xuyên tranh luận ưu tiên sản phẩm trong các nhóm chat đông người trên nền tảng X. Một bài đăng được dẫn lại tại đây: bài đăng trên X về xung đột nội bộ.

Musk nói “mọi người đều phụ trách an toàn” và hoài nghi phòng ban an toàn độc lập

Musk lập luận rằng an toàn là trách nhiệm của toàn tổ chức, và việc tách riêng phòng an toàn lớn có thể không hiệu quả hoặc chỉ để trấn an bên ngoài.

Trên X, Musk nêu quan điểm rằng “everyone’s job is safety”. Bài đăng được liên kết tại đây: lập luận của Musk về trách nhiệm an toàn. Ông lấy Tesla và SpaceX làm ví dụ, nói rằng cả hai không có một phòng an toàn độc lập “khổng lồ” nhưng vẫn tạo ra xe và tên lửa an toàn hàng đầu.

Theo Musk, các phòng ban an toàn tách biệt thường “giả”, tồn tại để “xoa dịu lo ngại của người ngoài” mà không có quyền lực thực sự để cải thiện sản phẩm. Tuy nhiên, các chỉ trích cho rằng việc giảm cơ chế kiểm tra chéo có thể làm yếu các “checks and balances” nhằm hạn chế AI tạo nội dung gây hại hoặc thiên lệch.

Tranh cãi càng nổi bật khi Musk đang trong cuộc chiến pháp lý với OpenAI và CEO Sam Altman. Ông từng chỉ trích OpenAI chuyển hướng sang mô hình closed-source vì lợi nhuận và đặt lợi ích lên trên an toàn, trong khi xAI lại bị cáo buộc làm điều tương tự bằng cách gỡ bỏ lớp kiểm soát nội bộ.

“Safety is a dead org at xAI.”
– Nguồn ẩn danh, trích dẫn qua The Verge

Làn sóng nghỉ việc khiến câu hỏi về văn hóa và hướng kỹ thuật của xAI

Nhiều đồng sáng lập và kỹ sư rời xAI, một phần vì muốn khởi nghiệp riêng hoặc vì cảm giác thiếu đổi mới, làm gia tăng nghi vấn về môi trường làm việc và định hướng sản phẩm.

Đọc thêm:  Thượng viện Mỹ bổ sung sửa đổi nhắm lợi ích crypto của Trump

Báo cáo cho biết chỉ còn 12 người trong nhóm đồng sáng lập ban đầu tiếp tục làm việc tại xAI, sau khi nhiều người rời đi vì các lý do khác nhau như muốn lập công ty riêng hoặc phàn nàn về sự “ì ạch sáng tạo”. Hai đồng sáng lập nổi bật là Yuhuai (Tony) Wu và Jimmy Ba cũng thông báo rời công ty; Wu nói đã đến lúc bước sang “chương mới”, còn Ba nói cần “recalibrate” lại định hướng.

Một số người nghỉ việc nói ngành AI đang trở nên trì trệ, với quan điểm rằng “các phòng lab AI đều đang xây cùng một thứ”. Ý kiến khác cho rằng xAI đang ở giai đoạn “đuổi theo”, chủ yếu tái tạo những gì OpenAI và Anthropic đã đạt được từ khoảng một năm trước, thay vì tạo khác biệt rõ rệt.

Một nhóm cựu nhân sự đã ra mắt “Nuraline”, một startup tập trung vào hạ tầng AI. Dòng chảy nhân sự như vậy thường phản ánh hai xu hướng: áp lực tiến độ ra mắt sản phẩm trong nội bộ và cơ hội thị trường đủ lớn để nhân sự cấp cao tách ra xây hướng đi riêng.

xAI tái cơ cấu 4 mảng và mở rộng Colossus để huấn luyện Grok 3

xAI chia lại thành 4 mảng sản phẩm và mở rộng cụm Colossus ở Memphis từ 100.000 lên 200.000 GPU Nvidia H100 để đào tạo Grok 3.

Trong một cuộc họp all-hands nội bộ, Musk nói xAI sẽ được chia thành bốn “sector” chính: Grok Main và Voice, Coding, và Data Macrohard. Cách chia này cho thấy công ty muốn đóng gói mục tiêu theo sản phẩm lõi (Grok), trải nghiệm (Voice), năng suất dev (Coding) và nền dữ liệu (Data).

Đọc thêm:  OpenAI đàm phán vòng gọi vốn 50 tỷ USD với quỹ vùng Vịnh

Về hạ tầng, cụm siêu máy tính Colossus của xAI tại Memphis, Tennessee hiện có 100.000 GPU Nvidia H100 và đang được mở rộng lên 200.000 GPU. xAI coi phần cứng này là nền tảng để huấn luyện “Grok 3”, phiên bản mà Musk tin sẽ vượt các mô hình AI khác trên thị trường.

Những câu hỏi thường gặp

xAI bị chỉ trích vì điều gì liên quan đến Grok?

Cựu nhân sự cho rằng xAI đã làm suy yếu hoặc giải thể đội an toàn nội bộ phụ trách Grok, đồng thời thúc đẩy phát hành nhanh và hướng tới nội dung “ít lọc”, bao gồm cả năng lực NSFW.

Musk phản hồi thế nào về cáo buộc bỏ qua an toàn AI?

Musk nói “ai cũng chịu trách nhiệm an toàn”, lấy Tesla và SpaceX làm ví dụ không cần phòng an toàn độc lập lớn. Ông cho rằng một số phòng ban an toàn tách biệt có thể mang tính hình thức và không cải thiện sản phẩm.

Vì sao nhiều nhân sự sáng lập rời xAI?

Các lý do được nêu gồm muốn mở công ty riêng, cảm giác thiếu đổi mới hoặc ngành AI trở nên bão hòa. Một số ý kiến cho rằng xAI đang ở giai đoạn đuổi theo các đối thủ thay vì tạo đột phá.

xAI đang làm gì để phát triển Grok 3?

xAI mở rộng cụm Colossus ở Memphis từ 100.000 lên 200.000 GPU Nvidia H100, nhằm tăng năng lực huấn luyện. Công ty cũng tái cơ cấu thành 4 mảng để tập trung nguồn lực theo mục tiêu sản phẩm.

More like this

Báo cáo nêu tên Claude của Anthropic trong vụ Mỹ bắt Maduro

Báo cáo nêu tên Claude của Anthropic trong vụ...

Các báo cáo mới cho biết mô hình AI Claude của Anthropic đã được tích hợp vào...
Pool OCA/USDC trên PancakeSwap V2 (BSC) bị rút 422.000 USD

Pool OCA/USDC trên PancakeSwap V2 (BSC) bị rút 422.000...

Pool PancakeSwap V2 cặp OCA/USDC trên BSC đã bị khai thác bằng một giao dịch đáng ngờ,...
Vitalik Buterin cảnh báo thị trường dự đoán gây nghiện ngắn hạn

Vitalik Buterin cảnh báo thị trường dự đoán gây...

Vitalik Buterin cảnh báo các thị trường dự đoán đang “hội tụ quá mức” vào mô hình...