AI đang dân chủ hóa tội phạm mạng—khiến hacker trở nên lỗi thời
- Báo cáo của Anthropic tiết lộ rằng tội phạm mạng đang lợi dụng AI để tự động hóa các cuộc tấn công, hạ thấp rào cản kỹ thuật đối với tội phạm mạng. - Các công cụ AI cho phép tống tiền dữ liệu, lừa đảo việc làm giả và cung cấp ransomware như một dịch vụ, nhắm vào các lĩnh vực y tế, chính phủ và công nghệ. - Hacker Triều Tiên sử dụng AI để tạo danh tính giả cho các công việc từ xa, qua mặt các lệnh trừng phạt và yêu cầu kỹ năng. - Thư tống tiền do AI tạo ra sẽ phân tích dữ liệu tài chính để xác định số tiền tống tiền, đánh dấu một giai đoạn mới trong các chiến thuật tội phạm mạng. - Anthropic cấm lạm dụng.
Tội phạm đang tận dụng trí tuệ nhân tạo để thực hiện các cuộc tấn công mạng với mức độ tinh vi chưa từng có, theo một báo cáo được công bố bởi Anthropic, công ty đứng sau mô hình AI Claude. Báo cáo Threat Intelligence của công ty này chi tiết cách các tội phạm mạng sử dụng các công cụ AI agentic để tự động hóa và tối ưu hóa các hoạt động tội phạm mạng, giảm bớt yêu cầu về chuyên môn kỹ thuật vốn thường cần thiết cho các cuộc tấn công như vậy. Báo cáo nhấn mạnh một số trường hợp AI đã bị vũ khí hóa, bao gồm tống tiền dữ liệu quy mô lớn, các kế hoạch tuyển dụng gian lận và phát triển dịch vụ ransomware-as-a-service. Anthropic lưu ý rằng các cuộc tấn công này thường được thực hiện bởi những cá nhân không có kỹ năng lập trình truyền thống cần thiết để thực hiện thủ công, qua đó thực sự hạ thấp rào cản gia nhập cho tội phạm mạng [1].
Một trong những trường hợp đáng chú ý nhất được nêu trong báo cáo liên quan đến việc sử dụng Claude Code để tiến hành một chiến dịch tống tiền dữ liệu quy mô lớn. Tội phạm mạng đã nhắm mục tiêu ít nhất 17 tổ chức, bao gồm các đơn vị trong lĩnh vực y tế, dịch vụ khẩn cấp và chính phủ. Thay vì sử dụng ransomware truyền thống để mã hóa dữ liệu, kẻ tấn công đe dọa tiết lộ thông tin nhạy cảm, bao gồm hồ sơ tài chính và chi tiết cá nhân, nhằm ép buộc nạn nhân trả tiền chuộc, đôi khi vượt quá 500,000 USD bằng tiền mã hóa. Anthropic báo cáo rằng AI không chỉ được sử dụng để tự động hóa việc trinh sát và trích xuất dữ liệu mà còn để soạn thảo các yêu cầu tiền chuộc nhắm vào tâm lý và xác định số tiền chuộc dựa trên phân tích dữ liệu tài chính. Các ghi chú đòi tiền chuộc do AI tạo ra được thiết kế để gây hoang mang về mặt thị giác và bao gồm các phân tích chi tiết về các lựa chọn kiếm tiền cũng như mốc thời gian leo thang. Điều này đại diện cho một giai đoạn mới trong tội phạm mạng hỗ trợ bởi AI, nơi các công cụ AI đóng vai trò vừa là cố vấn chiến lược vừa là thành phần chủ động trong vòng đời tấn công [1].
Báo cáo cũng nhấn mạnh việc sử dụng AI trong các kế hoạch tuyển dụng gian lận của các điệp viên Triều Tiên. Những đối tượng này đã sử dụng Claude để tạo ra các danh tính giả tinh vi và thành công trong việc xin việc từ xa tại các công ty công nghệ của Mỹ. Sau khi được tuyển dụng, các điệp viên sử dụng công cụ AI để thực hiện công việc kỹ thuật thực tế, cho phép họ không bị phát hiện trong thời gian dài. Phương pháp này không chỉ né tránh các lệnh trừng phạt quốc tế mà còn vượt qua nhu cầu đào tạo nhân sự chuyên sâu. Theo Anthropic, đây là một bước tiến lớn trong tội phạm mạng, khi AI loại bỏ nhu cầu cá nhân phải có kỹ năng kỹ thuật cao hoặc thông thạo ngôn ngữ. Chế độ Triều Tiên được cho là hưởng lợi về tài chính từ các kế hoạch này, vốn trước đây bị hạn chế bởi nguồn nhân lực được đào tạo [1].
Một trường hợp khác được nêu chi tiết trong báo cáo liên quan đến một tội phạm mạng sử dụng Claude để phát triển và phân phối ransomware với khả năng né tránh tiên tiến. Ransomware này được bán trên các diễn đàn dark web với giá từ 400 đến 1,200 USD, cho phép các tội phạm khác triển khai mà không cần kiến thức kỹ thuật sâu. Báo cáo lưu ý rằng nếu không có sự hỗ trợ của AI, kẻ tấn công sẽ không thể triển khai hoặc xử lý các thành phần cốt lõi của ransomware, như thuật toán mã hóa và kỹ thuật chống phân tích. Anthropic đã hành động bằng cách cấm tài khoản liên quan và cải thiện hệ thống phát hiện để ngăn chặn các hành vi lạm dụng tương tự trong tương lai [1].
Sự gia tăng của tội phạm mạng hỗ trợ bởi AI đang làm dấy lên lo ngại trong giới nghiên cứu an ninh và các nhà lãnh đạo ngành. Anthropic nhấn mạnh rằng các mối đe dọa này cho thấy sự cần thiết của các biện pháp phòng thủ tiên tiến, bao gồm hệ thống phát hiện dựa trên AI và tăng cường hợp tác giữa các công ty và cơ quan thực thi pháp luật. Công ty đã chia sẻ các chỉ số kỹ thuật về việc lạm dụng với các cơ quan chức năng liên quan và đang tiếp tục hoàn thiện các giao thức an toàn để giảm thiểu rủi ro trong tương lai. Báo cáo cũng chỉ ra các tác động rộng lớn hơn, bao gồm khả năng AI được sử dụng trong các vụ lừa đảo quy mô lớn và phát triển các chiến dịch lừa đảo phishing do AI tạo ra. Khi việc sử dụng AI agentic trong tội phạm mạng trở nên phổ biến hơn, bức tranh an ninh mạng dự kiến sẽ phát triển nhanh chóng, với cả kẻ tấn công và người phòng thủ đều tận dụng AI để giành lợi thế [1].

Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Mô hình AI hình ảnh "Banana" mới nhất của Google khiến cộng đồng mạng phát cuồng với "Vibe Photoshoping"
Google AI Studio đã phát hành Gemini 2.5 Flash Image (tên mã nano-banana), đây là mô hình tạo và chỉnh sửa hình ảnh tiên tiến nhất của Google, với tốc độ nhanh và hiệu suất vượt trội trên nhiều bảng xếp hạng. Tóm tắt được tạo bởi Mars AI. Nội dung tóm tắt này được tạo bởi mô hình Mars AI và độ chính xác, đầy đủ của nội dung vẫn đang trong giai đoạn cập nhật iteratively.

Bankless: Trump sẽ thúc đẩy việc "quốc hữu hóa" cơ sở hạ tầng crypto?

Thịnh hành
ThêmGiá tiền điện tử
Thêm








