Trong nhiều năm, các nền tảng công nghệ lớn luôn khẳng định một điều: họ chỉ là “trung gian” — không tạo ra nội dung, không định hình tư tưởng, chỉ đơn thuần kết nối con người với thông tin. Nhưng sự xuất hiện của trí tuệ nhân tạo đang làm sụp đổ hoàn toàn lập luận đó.
Một sáng kiến mới tại New Zealand — sử dụng AI để phát hiện người có dấu hiệu cực đoan và chuyển họ sang các chương trình “giải cực đoan hóa” — cho thấy một bước chuyển mang tính lịch sử:
AI không còn chỉ kiểm duyệt nội dung, mà bắt đầu can thiệp vào nhận thức con người.
Từ “gỡ bài” đến “sửa người”
Trong giai đoạn đầu của mạng xã hội, quyền lực của các nền tảng nằm ở việc quyết định nội dung nào được tồn tại.
- Một bài viết có thể bị xóa
- Một tài khoản có thể bị khóa
- Một video có thể bị giảm hiển thị
Đó là quyền lực kiểm duyệt.
Nhưng AI mở ra một cấp độ hoàn toàn khác. Khi một hệ thống không chỉ chặn nội dung mà còn:
- đánh giá xu hướng tư duy
- dự đoán nguy cơ cực đoan
- và chủ động “điều hướng” người dùng
… thì nó đã bước sang vùng của quyền lực nhận thức.
Nói cách khác, AI không còn dừng ở việc “bạn được nói gì”, mà tiến tới:
bạn nên nghĩ gì.
“Giải cực đoan hóa” – mục tiêu tốt, nhưng ai định nghĩa?
Không ai phủ nhận rằng cực đoan bạo lực là mối đe dọa thực sự. Từ khủng bố, bạo lực chính trị cho đến các vụ tấn công cá nhân, thế giới đã chứng kiến hậu quả của việc tư tưởng bị cực đoan hóa.
Nhưng vấn đề không nằm ở mục tiêu.
Vấn đề nằm ở định nghĩa.
- Ai xác định thế nào là “cực đoan”?
- Ranh giới giữa “ý kiến mạnh mẽ” và “nguy cơ nguy hiểm” nằm ở đâu?
- Một quan điểm trái chiều có thể bị gắn nhãn “cực đoan” không?
Trong lịch sử, những khái niệm như “phản động”, “chống phá”, hay “nguy hiểm cho xã hội” đã từng bị sử dụng để dập tắt bất đồng chính kiến. Khi AI tham gia vào quá trình này, nguy cơ không biến mất — mà có thể được tự động hóa ở quy mô lớn hơn.
Từ công cụ công nghệ đến công cụ quyền lực
AI không tồn tại trong chân không. Nó được:
- thiết kế bởi con người
- huấn luyện bằng dữ liệu
- vận hành trong khuôn khổ chính trị và pháp lý
Điều đó có nghĩa là:
AI phản ánh hệ giá trị của những người kiểm soát nó.
Khi các chính phủ bắt đầu yêu cầu các công ty công nghệ chịu trách nhiệm về nội dung và hành vi người dùng, AI trở thành một “cầu nối” giữa:
- công nghệ
- an ninh
- và quyền lực nhà nước
Đây chính là nơi khái niệm “quyền lực mềm” (soft power) biến đổi.
Trước đây, quyền lực mềm là:
- văn hóa
- truyền thông
- giá trị
Ngày nay, nó có thể là:
thuật toán, mô hình AI và khả năng định hình nhận thức số đông.
Hiệu ứng ngược: khi người dùng im lặng
Một trong những rủi ro lớn nhất của các hệ thống “giải cực đoan hóa” là hiệu ứng tâm lý:
👉 Người dùng biết mình có thể bị “đánh giá”
→ họ sẽ tự kiểm duyệt
→ không dám nói thật
Điều này tạo ra một xã hội mà:
- bề ngoài trật tự
- nhưng bên trong là sự tích tụ của bất mãn
Lịch sử cho thấy, khi không còn không gian để bày tỏ,
👉 cực đoan không biến mất
👉 nó chỉ chuyển sang những nơi kín đáo hơn
AI và ranh giới nguy hiểm nhất
Điểm nguy hiểm nhất không phải là AI sai.
Mà là khi AI được tin là luôn đúng.
Một hệ thống:
- có thể nhầm ngữ cảnh
- hiểu sai ý định
- hoặc bị thiên lệch dữ liệu
Nhưng nếu xã hội mặc định rằng:
👉 “AI nói bạn có xu hướng cực đoan”
… thì việc phản biện trở nên gần như bất khả thi.
Đó là lúc công nghệ không còn là công cụ,
mà trở thành trọng tài không thể bị chất vấn.
Một câu hỏi chưa có lời đáp
Chúng ta đang bước vào một thời đại mà AI có thể:
- viết bài
- tạo hình ảnh
- dự đoán hành vi
- và giờ đây, can thiệp vào tư tưởng
Điều đó đặt ra câu hỏi lớn nhất:
Ai kiểm soát AI — và ai kiểm soát người kiểm soát AI?
Kết luận
Việc sử dụng AI để ngăn chặn cực đoan có thể xuất phát từ ý định tốt. Nhưng lịch sử cho thấy, mọi công cụ quyền lực — dù bắt đầu với mục tiêu tích cực — đều có thể bị lạm dụng.
Ranh giới giữa:
- bảo vệ xã hội
- và kiểm soát tư tưởng
… là một đường rất mỏng.
Và khi AI đứng trên ranh giới đó,
điều chúng ta cần không chỉ là công nghệ tốt hơn,
mà là:
minh bạch hơn, trách nhiệm hơn, và quan trọng nhất — giới hạn quyền lực rõ ràng hơn.
Nguồn tham khảo :









































