Elon Musk từng cho biết mục tiêu của ông là nhanh chóng cắt giảm ít nhất 1.000 tỷ USD thâm hụt ngân sách Mỹ.

Truyền thông dẫn lời các nguồn tin ẩn danh cho thấy, Bộ DOGE đang sử dụng AI để đẩy nhanh những quyết định cắt giảm chi phí.

David Evan Harris, chuyên gia AI từng làm cho bộ phận AI có trách nhiệm của Meta, gọi đây là “ý tưởng tồi tệ”.

Các chuyên gia nhận xét cách tiếp cận này phản ánh tư duy “cắt trước, sửa sau” mà Musk áp dụng cho Twitter hai năm trước, dẫn đến hàng nghìn nhân viên mất việc, gây ra các sự cố kỹ thuật, kiện tụng và tranh cãi làm xói mòn mạng xã hội.

Tuy nhiên, hậu quả khi giải tán các cơ quan, hệ thống và dịch vụ chính phủ sẽ trầm trọng hơn nhiều so với một hãng công nghệ.

Dùng AI định hướng các quyết định cắt giảm chi phí

Theo Washington Post, đầu tháng 2, các thành viên của DOGE đã nạp dữ liệu nhạy cảm của Bộ Giáo dục vào phần mềm AI để phân tích chương trình và chi tiêu của bộ.

Tờ Wired đưa tin, nhân viên DOGE phát triển chatbot AI cho Sở Quản trị công vụ (GSA) có tên GSAi, hỗ trợ phân tích khối lượng lớn dữ liệu hợp đồng và mua sắm.

Một báo cáo khác từ NBC News cho biết, DOGE cân nhắc dùng AI để phân tích phản hồi công việc của nhân viên liên bang, xác định vị trí nào không còn cần thiết.

elon musk bloomberg
Elon Musk (đứng) và con trai tại Nhà Trắng. Ảnh: Bloomberg

Tháng 2, Wired đưa tin DOGE đã chỉnh sửa phần mềm AutoRIF của Bộ Quốc phòng để tự động xếp hạng nhân sự, phục vụ cho mục đích sa thải.

Tuần trước, 21 nhân viên của Cơ quan dịch vụ kỹ thuật số Mỹ (USDS) đã từ chức để phản đối. Họ cáo buộc nhân sự DOGE xử lý dữ liệu nhạy cảm sai cách và phá vỡ các hệ thống quan trọng.

Tuy nhiên, thư ký Nhà Trắng Karoline Leavitt khẳng định, bất kỳ ai cho rằng biểu tình, kiện tụng hay hành động pháp lý để ngăn cản Tổng thống Trump “chắc hẳn đã không biết gì trong vài năm qua”, theo AP.

Trên X, Musk cũng gọi những người này là “những kẻ bảo thủ” từ chối trở lại văn phòng.

Theo Amanda Renteria, CEO Code for America – tổ chức phi lợi nhuận phát triển công cụ số và nâng cao năng lực kỹ thuật cho các chính phủ, vấn đề một phần xuất phát từ việc xây dựng công cụ AI hiệu quả cần hiểu biết sâu sắc về dữ liệu được dùng để đào tạo, thứ mà đội ngũ DOGE chưa có.

Kết quả mà công cụ AI đưa ra có thể vô dụng, hoặc công nghệ thiếu thông tin, ngữ cảnh để đưa ra quyết định đúng. Nó có thể gặp vấn đề “ảo giác”.

Theo nhiều hãng tin, nhân sự DOGE là một nhóm nam thanh niên độ tuổi 20, đến từ những công ty khác của Musk.

Những lo ngại xoay quanh việc DOGE sử dụng AI

Các chuyên gia lo ngại AI có thể lặp lại sự thiên vị thường xuất hiện ở con người. Chẳng hạn, một số công cụ tuyển dụng AI ưu tiên người da trắng, giới tính nam hơn các ứng viên khác.

Nếu AI được dùng để xác định vị trí hay dự án nào bị loại bỏ, nó đồng nghĩa với một số nhân sự hoặc công việc quan trọng sẽ bị cắt giảm chỉ vì vẻ ngoài hay đối tượng họ phục vụ.

Harris phân tích ví dụ dùng AI để đánh giá phản hồi từ các nhân viên liên bang: những nhân viên tài năng nhưng tiếng Anh không phải ngôn ngữ mẹ đẻ có thể bị AI nhận xét là kém hơn những người nói tiếng Anh.

Dù những lo ngại này không mới, nó sẽ gây hậu quả trầm trọng hơn nếu phạm sai lầm trong chính phủ. Bản thân Musk thừa nhận DOGE có thể mắc lỗi và đã loại bỏ một số nỗ lực quan trọng như phòng ngừa bệnh Ebola.

Không rõ AI có liên quan đến việc ra quyết định này không.

Không thể phủ nhận AI giúp tăng hiệu quả làm việc, tổng hợp và phân tích lượng lớn thông tin. Song, nếu không sử dụng thận trọng, nó sẽ đặt dữ liệu nhạy cảm của chính phủ hoặc thông tin cá nhân của mọi người vào vòng nguy hiểm.

Không có biện pháp bảo vệ đúng đắn và hạn chế người truy cập hệ thống, dữ liệu nạp vào chương trình AI có thể bất ngờ xuất hiện trong các phản hồi cho những yêu cầu khác và rơi vào tay những người không nên biết.

Harris đặc biệt lo ngại về cách DOGE xử lý hồ sơ nhân sự, thứ mà ông mô tả là nằm trong “những loại tài liệu nhạy cảm nhất trong bất kỳ tổ chức nào”.

Tuy nhiên, có lẽ mối lo cấp bách nhất, theo các chuyên gia, là sự thiếu minh bạch xoay quanh việc DOGE sử dụng AI. Bộ đang dùng công cụ nào, được giám sát sao, con người có kiểm tra và thẩm định kết quả không… là những câu hỏi còn bỏ ngỏ.

Julia Stoyanovich, Phó giáo sư khoa học máy tính và Giám đốc Trung tâm AI có trách nhiệm tại Đại học New York, cho rằng để AI có hiệu quả, người dùng phải rõ ràng về mục tiêu của họ đối với công nghệ và kiểm tra đầy đủ liệu hệ thống AI có đáp ứng những nhu cầu đó hay không.

“Tôi thực sự, thực sự tò mò muốn nghe nhóm DOGE nói rõ cách họ đo lường hiệu suất và tính đúng đắn của kết quả”, bà chia sẻ.

(Theo CNN)