20q3.com
vị trí của bạn:tin tưc hăng ngay > Tin tức > Kẻ lừa đảo dùng công nghệ AI để dàn dựng vụ lừa đảo và lãnh đạo Ferrari bị lừa

Kẻ lừa đảo dùng công nghệ AI để dàn dựng vụ lừa đảo và lãnh đạo Ferrari bị lừa

thời gian:2024-03-17 08:13:31 Nhấp chuột:108 hạng hai
{1[The Epoch Times, ngày 31 tháng 7 năm 2024] (Báo cáo toàn diện của phóng viên Lin Yan của Epoch Times) Với sự phát triển của công nghệ trí tuệ nhân tạo, những kẻ lừa đảo đang sử dụng kỹ thuật giả mạo AI để giả mạo ai đó nhằm thực hiện một hình thức lừa đảo trực tuyến mới. Hãng siêu xe Ý Ferrari Một giám đốc điều hành cấp cao của hãng cũng suýt rơi vào bẫy độ trung thực cao của nhóm lừa đảo. May mắn thay, sự thận trọng đã giúp ích cho anh vào thời điểm quan trọng.

Bloomberg đưa tin rằng vào một ngày thứ Ba trong tháng 7, một quan chức cấp cao của Ferrari NV bắt đầu nhận được một loạt tin nhắn trên WhatsApp từ một người tự xưng là Giám đốc điều hành Benedetto Vigna.

"Này, bạn đã nghe nói về thương vụ mua lại lớn mà chúng tôi đang lên kế hoạch chưa? Tôi có thể cần sự giúp đỡ của bạn." Một tin nhắn tự xưng là Vinia viết: "Hãy sẵn sàng ký thỏa thuận bảo mật, luật sư của chúng tôi sẽ gửi cho bạn sớm nhất có thể." nhất có thể."

"Cơ quan quản lý thị trường Ý và Sở giao dịch chứng khoán Milan đã được thông báo. Hãy chuẩn bị sẵn sàng và vui lòng thận trọng tối đa."

Bloomberg cho biết họ đã xác minh những tin nhắn WhatsApp này và phát hiện ra rằng người gửi không hiển thị số điện thoại di động thông thường của Vinia. Tài khoản này sử dụng ảnh Vigna đeo kính, mặc vest và đeo cà vạt, khoanh tay, đứng trước logo Ferrari Prancing Horse nhưng khác với ảnh đại diện thật của anh.

Ngay khi giám đốc điều hành của Ferrari đang bối rối, kẻ lừa đảo bất ngờ gọi điện và cố gắng giả giọng của Vigna để hạ thấp cảnh giác của giám đốc điều hành.

Theo hồi ức của giám đốc điều hành, việc bắt chước giọng nói rất thuyết phục và bắt chước giọng miền Nam nước Ý của Vigna một cách hoàn hảo.

BẮN CÁ

Trong cuộc gọi, kẻ lừa đảo nói rằng vì cuộc thảo luận liên quan đến vấn đề bảo mật nên anh ta đã sử dụng một chiếc điện thoại di động khác để liên hệ với mình. Anh ta cũng nói rằng việc mua lại có thể gặp phải một số phản đối từ Bắc Kinh và yêu cầu một giao dịch phòng ngừa rủi ro tiền tệ.

Tuy nhiên, lời giải thích này đã phản tác dụng. Người điều hành không những không bị thuyết phục mà còn bắt đầu nghi ngờ - và bắt đầu nhận thấy giọng điệu máy móc tinh vi trong giọng nói.

Vì vậy, anh ấy vô thức hỏi: "Xin lỗi, Vinia, tôi cần xác nhận danh tính của mình với bạn."

Anh ấy hỏi một câu: Bạn còn nhớ tên cuốn sách được giới thiệu cho anh ấy vài ngày trước không? Nói xong, đối phương lập tức cúp điện thoại. Hiện tại, Ferrari cũng đang điều tra vụ việc này.

FBI cảnh báo: Tội phạm sử dụng AI để lừa đảo

Ngày nay, ngày càng có nhiều cuộc gọi lừa đảo như vậy. Những kẻ lừa đảo sử dụng trí tuệ nhân tạo (AI) để tổng hợp tin tức giả, video, giọng nói và các tài liệu truyền thông khác nhằm đạt được các hiệu ứng sống động như "thay đổi khuôn mặt, thay đổi giọng nói", khiến thật khó để mọi người phân biệt. Không chỉ người dân bình thường bị lừa dối mà ngay cả giám đốc điều hành của các công ty lớn cũng khó nhìn thấu được điều đó.

Đặc vụ FBI Robert Tripp cho biết trong một thông báo vào tháng 5: "Khi công nghệ tiếp tục phát triển, các chiến lược của tội phạm mạng cũng vậy. Những kẻ tấn công đang lợi dụng các tin nhắn thoại hoặc video và email có sức thuyết phục cao của AI để thực hiện các kế hoạch lừa đảo chống lại các cá nhân và doanh nghiệp."

"Những chiến thuật phức tạp này có thể dẫn đến tổn thất tài chính nghiêm trọng, tổn hại về danh tiếng và làm lộ dữ liệu nhạy cảm."

BBC của Anh đưa tin rằng khi công nghệ deepfake AI ngày càng hoàn thiện, một số nhóm lừa đảo sử dụng công nghệ này để cải trang thành cảnh sát của Đảng Cộng sản Trung Quốc nhằm lừa gạt người Hoa ở nước ngoài.

Gần đây, đã có những cuộc gọi lừa đảo do những người giả danh người thân hoặc bạn bè thực hiện, khiến giọng nói của họ phát ra hoặc trông giống thành viên gia đình của họ trong các cuộc gọi điện video.

Vào tháng 2 năm nay, một công ty đa quốc gia ở Hồng Kông đã bị lừa đảo và mất 26 triệu USD. Kẻ lừa đảo đã sử dụng công nghệ deepfake để mạo danh giám đốc tài chính và hướng dẫn nhân viên công ty chuyển số tiền khổng lồ thông qua cuộc gọi video.

Cách phát hiện lừa đảo AI

FBI khuyến khích các cá nhân và doanh nghiệp giảm thiểu rủi ro bị lừa gạt bằng cách: Thứ nhất, luôn cảnh giác và chú ý đến các tin nhắn khẩn cấp yêu cầu tiền hoặc thông tin xác thực. Thứ hai, triển khai xác thực đa yếu tố và tận dụng các giải pháp xác thực đa yếu tố để bổ sung thêm một lớp bảo mật và khiến tội phạm mạng khó truy cập trái phép vào tài khoản và hệ thống hơn.

Trên Internet, cư dân mạng cũng bổ sung thêm hai điểm. Đầu tiên, hãy xác nhận danh tính của bạn. Khi nhận được cuộc gọi điện thoại hoặc cuộc gọi video, nếu bên kia đưa ra yêu cầu bất thường, trước tiên bạn phải xác nhận yêu cầu đó với người đó qua các kênh khác trước khi thực hiện. hoạt động.

Thứ hai, hãy quan sát chi tiết. Trò lừa đảo này thoạt nhìn có vẻ như thật nhưng vẫn có những sai sót. Ví dụ: có thể có hiện tượng nhấp nháy không tự nhiên trong video, môi và giọng nói không đồng bộ, giọng nói giống như robot, thay đổi đột ngột về ánh sáng hoặc màu da, chất lượng âm thanh hoặc video không rõ ràng, v.v. Nếu bạn tìm thấy những đặc điểm tinh tế này, hãy xác minh danh tính của bạn với bên kia ngay lập tức.

BẮN CÁ

Người biên tập: Ye Ziwei#

liên hệ chúng tôi
Trang web chính thức:{www.smt30.org/}
Thời gian hoạt động:Thứ Hai đến Thứ Bảy(09:00-18:00)
liên hệ chúng tôi
URL:www.smt30.org
Theo dõi tài khoản công khai

Powered by tin tưc hăng ngay bản đồ RSS bản đồ HTML

Copyright 站群 © 2013-2024 tin tưc hăng ngayĐã đăng ký Bản quyền