Chúng ta

Giả mạo lãnh đạo lừa đảo: có xu hướng “biến hóa” phức tạp

Thứ năm, 29/2/2024 | 17:12 GMT+7

Sử dụng AI để giả mạo giọng nói, mô phỏng khuôn mặt hay giả lập cuộc gọi video trực tuyến là một trong những tình huống khó lường nhất, đặc biệt nếu đối tượng bị giả mạo thuộc nhóm lãnh đạo. Theo các chuyên gia CNTT của FPT, người dùng sẽ ngày càng khó nhận diện được thật - giả hơn khi có sự xuất hiện của những công cụ như Midjourney, Dall-E…

Theo thông tin mới nhất, trong tháng 01/2024, tại một công ty thành viên (CTTV) của FPT đã xảy ra sự việc giả mạo lãnh đạo cấp cao để yêu cầu một lãnh đạo cấp trung thực hiện một số thao tác liên quan tới tài chính. Bên cạnh đó, hiện tượng sử dụng AI để giả mạo - mô phỏng giọng nói, hình ảnh bắt đầu xuất hiện trên thế giới, do đó người dùng nhà F cần nắm rõ hơn về kiến thức cũng như nâng cao tính cảnh giác chung khi tiếp nhận thông tin.

Là công nghệ sử dụng trí tuệ nhân tạo tổng hợp (GenAI), các công cụ như deepfake được hacker sử dụng để mô phỏng giọng nói và hình ảnh của một người. Điều đặc biệt là chất lượng sản phẩm của các công cụ này ngày càng tăng cao, khiến người dùng khó khăn trong việc phân biệt giữa chủ thể thật và giả. Đặc biệt, hiện nay tội phạm mạng có đang có nguy cơ cao trong việc chuyển hướng đối tượng là các lãnh đạo của tổ chức, doanh nghiệp. Nếu giả mạo thành công, kẻ gian có thể lợi dụng để lan truyền thông tin sai lệch, lừa nhân viên tiết lộ thông tin mật, truy cập trái phép vào hệ thống nhạy cảm, thực hiện hành vi gian lận hoặc thậm chí tống tiền.

-7241-1709201507.png

Sự bùng nổ các mô hình AI mới làm tăng nguy cơ tấn công mạng.

“Đầu năm 2024, FPT đã xuất hiện sự việc kẻ lừa đảo đã giả mạo một lãnh đạo cao cấp gửi tin nhắn yêu cầu một lãnh đạo đơn vị nhỏ hơn thực hiện giao dịch tài chính. Rất may mắn, vụ lừa đảo này đã không thành công. Theo một số báo cáo chung về dự báo tình hình an ninh mạng năm 2024, tôi cho rằng sự phát triển nhanh chóng của AI không chỉ mang lại những lợi ích rõ ràng mà còn tạo ra những thách thức mới cho an ninh mạng” - anh Phạm Trung Anh, Trưởng phòng An ninh bảo mật và hệ thống, Ban Công nghệ thông tin Tập đoàn FPT (FIM) cho biết.

Bên cạnh đó, chuyên gia bảo mật của Tập đoàn FPT cũng nhận định trong thời gian qua, sự phát triển quá nóng của ChatGPT khiến các hình thức lừa đảo ăn theo ứng dụng này cũng nở rộ. Người FPT cần nâng cao tính cảnh giác khi cung cấp thông tin cá nhân cho bất kỳ cá nhân hay tổ chức nào, cho dù đó là đăng ký tài khoản hay xác thực thông tin.

Như vậy, để nâng cao nhận thức phòng ngừa các cuộc tấn công giả mạo lãnh đạo cao cấp này đối với CBNV Tập đoàn FPT, Ban Công nghệ thông tin tập đoàn FPT (FIM) khuyến cáo người dùng FPT:

- ️Thực hiện đề cao cảnh giác: Nếu cảm thấy có điều gì đó không bình thường, luôn thực hiện kiểm tra lại trước khi thực hiện theo yêu cầu.

- ️Đặc biệt chú ý tới các biểu hiện bất thường như: Thời gian yêu cầu, ngôn ngữ sử dụng, nội dung yêu cầu, kênh giao tiếp không chính thống hoặc chưa bao giờ được sử dụng trước đây.

️- Xác nhận lại với người yêu cầu qua các hình thức liên lạc khác như: gặp mặt trực tiếp, gọi điện thoại trực tiếp, trao đổi qua các kênh làm việc chính thống như gửi email và xác nhận lại với lãnh đạo hoặc chat/call qua FPT Workplace.

Thu Hiền

Ý kiến

()