Hai nhà nghiên cứu đã từ chức khỏi Anthropic và OpenAI trong tuần này, một người cảnh báo rằng “thế giới đang gặp nguy hiểm” bởi vô số cuộc khủng hoảng.
BY MAX REGO – 02/12/26 2:53 PM ET
Mrinank Sharma đã thông báo từ chức khỏi Anthropic trong một bức thư ngỏ gửi các đồng nghiệp vào thứ Hai. Sharma, người đã làm việc trong đội ngũ kỹ thuật của công ty từ năm 2023, trước hết lưu ý rằng ông “đã đạt được những gì tôi muốn ở đây” và “đặc biệt tự hào về những nỗ lực gần đây của tôi nhằm giúp chúng ta sống đúng với các giá trị của mình thông qua các cơ chế minh bạch nội bộ; và cả dự án cuối cùng của tôi về việc tìm hiểu cách các trợ lý AI có thể khiến chúng ta bớt tính người hoặc làm biến dạng nhân tính của chúng ta.”
“Tuy nhiên, rõ ràng là đã đến lúc phải bước tiếp,” ông viết sau đó trong bức thư. “Tôi liên tục phải suy ngẫm về tình hình hiện tại. Thế giới đang gặp nguy hiểm. Và không chỉ từ trí tuệ nhân tạo hay vũ khí sinh học, mà từ một loạt các cuộc khủng hoảng liên kết với nhau đang diễn ra ngay lúc này.
“Trong suốt thời gian làm việc ở đây, tôi đã nhiều lần chứng kiến việc thực sự để các giá trị của chúng ta chi phối hành động khó khăn như thế nào,” Sharma nói thêm. “Tôi đã thấy điều này trong chính bản thân mình, trong tổ chức, nơi chúng ta liên tục phải đối mặt với áp lực gạt bỏ những điều quan trọng nhất, và cả trong toàn xã hội nữa.”
Hai ngày sau, Zoë Hitzig viết trong một bài bình luận trên tờ The New York Times rằng cô từ chức khỏi OpenAI vì công ty quyết định thử nghiệm quảng cáo trên nền tảng ChatGPT của mình. Hitzig, một nhà khoa học nghiên cứu tại công ty từ năm 2024, cho biết mặc dù cô không tin rằng quảng cáo là “vô đạo đức và phi luân lý”, nhưng cô vẫn có “những lo ngại sâu sắc về chiến lược của OpenAI”.
“Người dùng đang tương tác với một giọng nói thích ứng, có khả năng trò chuyện, nơi họ đã tiết lộ những suy nghĩ riêng tư nhất của mình,” nhà nghiên cứu viết. “Mọi người kể cho chatbot nghe về nỗi sợ hãi về sức khỏe, vấn đề trong mối quan hệ, niềm tin về Chúa và thế giới bên kia.
“Quảng cáo được xây dựng dựa trên kho dữ liệu đó tạo ra tiềm năng thao túng người dùng theo những cách mà chúng ta không có công cụ để hiểu, chứ đừng nói đến việc ngăn chặn.”
Một người phát ngôn của OpenAI đã chỉ dẫn tờ The Hill đến các nguyên tắc quảng cáo của họ, trong đó nêu rõ rằng quảng cáo không ảnh hưởng đến câu trả lời mà ChatGPT cung cấp, cũng như lời CEO của Applications, Fidji Simo, nói với nhà báo Alex Heath hồi đầu tuần rằng “quảng cáo sẽ luôn được tách biệt và phân định rõ ràng với nội dung, vì vậy bạn biết chính xác những gì bạn đang nhận được.”
Một người phát ngôn của Anthropic nói với tờ The Hill rằng họ rất biết ơn công việc của Sharma trong việc thúc đẩy nghiên cứu an toàn AI và lưu ý rằng người quản lý của ông, Ethan Perez, đã cảm ơn Sharma vào thứ Ba để đáp lại bức thư ngỏ của ông. Người phát ngôn nói thêm rằng Sharma, giống như tất cả các nhân viên hiện tại hoặc trước đây khác, có thể tự do nói về các mối lo ngại về an toàn.
Claude, chatbot của Anthropic, đã tung ra nhiều quảng cáo hồi đầu tháng này nhằm chế giễu OpenAI vì quyết định hiển thị quảng cáo trên ChatGPT. CEO của OpenAI, Sam Altman, phát biểu tại Trường Kinh doanh Harvard năm 2024 rằng ông không “hoàn toàn phản đối” quảng cáo trên chatbot, nhưng ý tưởng này “thực sự đáng lo ngại”.
Altman đã phản bác lại các quảng cáo – được phát sóng trong trận Super Bowl – bằng cách viết trên mạng xã hội rằng chúng “rõ ràng là không trung thực” và “lừa dối”.
The Hill








































