Ngân hàng lớn đưa ra cảnh báo về các vụ lừa đảo bằng công nghệ deepfake sử dụng trí tuệ nhân tạo

Username and password' on a fishing hook. Conceptual image about the risk of internet identity theft, also known as Phishing. fishing rod is harvesting user data in cyberspace.

Username and password' on a fishing hook. Conceptual image about the risk of internet identity theft, also known as Phishing. fishing rod is harvesting user data in cyberspace. Source: Moment RF / sarayut Thaneerat/Getty Images

Nghiên cứu mới cho thấy người Úc đang quá tự tin một cách nguy hiểm, về khả năng phát hiện các vụ lừa đảo deepfake sử dụng trí tuệ nhân tạo, ngay cả khi công nghệ này ngày càng khó nhận biết. Các chuyên gia cảnh báo rằng, những kẻ lừa đảo lợi dụng lòng tin và trực giác của mọi người, và kêu gọi họ hãy tạm dừng, xác minh và từ chối những tin nhắn đáng ngờ.


Nếu bạn nghĩ mình có thể nhận ra ngay, một vụ lừa đảo deepfake sử dụng trí tuệ nhân tạo, bạn không phải là người duy nhất.

Thế nhưng nghiên cứu mới của CommBank cho thấy, người Úc có thể tự tin hơn mức độ chính xác, và những kẻ lừa đảo đang lợi dụng kẽ hở đó.

Bởi vì với deepfake, mối nguy hiểm không chỉ nằm ở công nghệ, mà là ở điều nó đánh cắp ‘lòng tin’.
Tại Ngân hàng Commonwealth, Tổng Giám đốc ‘Dịch vụ Quản lý Gian lận Tập đoàn’, ông James Roberts cho biết deepfake hiện đang được sử dụng’ để mạo danh những người mà chúng ta thường tin tưởng, dù đó là người nổi tiếng, người quen thuộc hay người thân yêu.

“Vì vậy, điều chúng ta đang nói đến trong nghiên cứu là ‘deepfake’. Như bạn đã nói, đó có thể là ‘deepfake video,’ hoặc ‘deepfake âm thanh’. Thường thì đây là những màn mạo danh người mà bạn tin tưởng, có thể là người nổi tiếng, nhân vật công chúng, thậm chí là thành viên gia đình. Và nội dung này thường được đăng tải, trên các nền tảng mạng xã hội, ứng dụng hẹn hò và thậm chí cả các nền tảng nhắn tin”, James Roberts.

Ông Roberts cho biết, điều làm nên sự khác biệt lần này, là quy mô và tốc độ.

Đây không phải là những trò lừa đảo vụng về, mà bạn có thể cười nhạo. Chúng được thiết kế để tạo cảm giác cá nhân, quen thuộc, chân thực.

Và ông ấy nói rằng, người Úc đang gặp phải deepfake nhiều hơn nhiều người tưởng.

“Hiện tại, theo nghiên cứu, chúng ta thấy hơn một phần tư người Úc đã từng xem deepfake, và đó có thể là ‘deepfake video’ hoặc ‘deepfake âm thanh’. Vì vậy, nó khá phổ biến, nhưng chúng tôi dự đoán rằng nó sẽ tiếp tục tăng lên, khi ngày càng nhiều tội phạm cũng đang áp dụng công nghệ này”, James Roberts.

Một trong những khía cạnh đáng lo ngại nhất, là những kẻ lừa đảo chỉ cần rất ít nguyên liệu, để tạo ra deepfake âm thanh, đặc biệt là đối với những người đã có bản ghi âm giọng nói trực tuyến.

“Một trong những thách thức đối với tất cả chúng ta, là rất nhiều người trong chúng ta sử dụng mạng xã hội, có thể chúng ta là người nổi tiếng, hoặc đã đăng tải thông tin trực tuyến. Vì vậy, khuôn mặt và dấu vân giọng nói của chúng ta, thường xuyên bị lộ. Và đôi khi, chỉ cần chưa đến 10 giây ghi âm giọng nói của ai đó, là có thể sao chép được giọng nói của họ”, James Roberts.

Vì vậy, ngay cả khi bạn “am hiểu công nghệ”, ông Roberts nói rằng rủi ro lớn hơn, là sự tự tin thái quá với giả định rằng, bạn luôn biết điều gì là thật.

“Một trong những điều đáng lo ngại từ nghiên cứu, là 89% người được hỏi cho biết, họ có thể phát hiện chính xác deepfake. Nhưng khi chúng tôi kiểm tra, họ chỉ đúng 42% số lần. Điều đó thực sự còn tệ hơn, so với việc họ đoán”, James Roberts.

Vậy nếu hầu hết chúng ta, không thể phát hiện deepfake một cách đáng tin cậy, thì biện pháp phòng vệ tốt nhất là gì?

Ông Roberts nói rằng, mọi người không cần phải sống trong sợ hãi, và họ cũng không cần phải trở thành chuyên gia, trong việc phát hiện giọng nói tổng hợp, hoặc video giả mạo.

Thay vào đó ông nói rằng, biện pháp bảo vệ tốt nhất là về hành vi, đó là chậm lại, kiểm tra và không bị thúc ép.

“Chúng ta không cần phải sợ hãi. Thực ra chúng ta không cần phải có khả năng phát hiện ra đó là deepfake, miễn là bất cứ khi nào chúng ta làm điều gì đó, như đầu tư hoặc bắt đầu một mối quan hệ lớn, chúng ta hãy thực hiện các bước đơn giản theo phương châm: ‘dừng lại - kiểm tra - từ chối’. Vì vậy, hãy dừng lại. Hầu hết những kẻ lừa đảo sẽ gây áp lực về thời gian, để bạn hành động mà không suy nghĩ. Chúng ta hãy tạm dừng, hãy suy nghĩ chậm lại, đừng phản ứng ngay lập tức. Bước thứ hai là kiểm tra. Hãy nói chuyện với bạn bè và gia đình, trước khi đưa ra quyết định tài chính lớn. Sử dụng công cụ tìm kiếm, để tra cứu cơ hội và thêm từ "lừa đảo" vào cuối. Và cuối cùng, là bước ‘từ chối’, hãy cúp máy và chặn cuộc gọi”, James Roberts.

Lời khuyên đó rất quan trọng bởi vì rủi ro rất lớn, không chỉ về mặt tài chính mà còn cả về mặt cảm xúc. Ông nói rằng các vụ lừa đảo có thể phá hủy các mối quan hệ, chia rẽ gia đình, và trong những trường hợp bi thảm nhất, đẩy người ta đến chỗ tự làm hại bản thân.

“Đúng vậy, hậu quả thật khủng khiếp và hoàn toàn không thể chấp nhận được, việc các băng nhóm lại gây ra nhiều tổn thương về mặt tinh thần đến vậy. Rõ ràng là có thiệt hại về tài chính, điều này rất đáng kể, nhưng điều thường không được nhắc đến, là những khía cạnh mà bạn đang đề cập, đó là tổn thương về mặt tinh thần. Chúng ta đã chứng kiến những vụ ly hôn, tan vỡ gia đình, những doanh nghiệp nhỏ đang phát triển tốt lại sụp đổ, và ở khía cạnh hiếm gặp hơn, nhưng vẫn hiện hữu. Đó là những trường hợp tự làm hại bản thân, khi mọi người cảm thấy họ không thể đối phó được nữa”, James Roberts.

Ông nói đó là lý do tại sao, việc nói chuyện cởi mở về các vụ lừa đảo lại quan trọng đến vậy, bởi vì sự xấu hổ và im lặng, có thể làm cho thiệt hại trở nên tồi tệ hơn.

“Một trong những cách tốt nhất là nói chuyện. Cho dù bạn đã bị lừa đảo, hay chỉ muốn bảo vệ gia đình mình, hãy nói về điều đó. Chúng ta cần xóa bỏ định kiến về các vụ lừa đảo, để mọi người có thể có những cuộc trò chuyện cởi mở, giúp họ không bị mắc bẫy và nếu có bị mắc bẫy, hãy bảo đảm họ thực sự được chăm sóc”, James Roberts.

Và đối với các gia đình, lo lắng về các vụ lừa đảo giả mạo giọng nói, chẳng hạn như ai đó giả vờ là con hoặc cháu của bạn để xin tiền gấp, ông Roberts cho biết, một bước đơn giản có thể ngăn chặn vụ lừa đảo ngay từ đầu, đó là một từ khóa an toàn cho gia đình.

“Thực tế, các nghiên cứu cho thấy 74% người Úc cảm thấy rằng, họ nên có một từ khóa an toàn cho gia đình. Nhưng thật không may, chỉ có 20% trong số họ thực sự đã thực hiện bước này. Thực ra việc đó rất dễ dàng. Vì vậy, nếu người nghe chỉ cần nhớ một điều, từ toàn bộ cuộc thảo luận này, đó là hãy tạo ra một từ khóa an toàn, chia sẻ nó một cách bí mật trong gia đình, để giúp bảo vệ bản thân, khỏi bất kỳ kẻ mạo danh nào của các thành viên trong gia đình”, James Roberts.

Thế nhưng ông Roberts cũng có lời khuyên thiết thực, cho những tình huống thường ngày, khi điện thoại reo, đó là một số lạ và bạn bị cám dỗ trả lời, chỉ để xem họ muốn gì.

Ông nói đừng tương tác, thậm chí đừng có cơ hội mắng chửi kẻ lừa đảo.

“Vì vậy, mặc dù có lẽ việc chửi rủa họ và có được sự tương tác đó, là điều thỏa mãn. Thường thì tốt nhất là không nên trả lời, các cuộc gọi lừa đảo nếu chúng đến. Bạn càng trả lời nhiều, chúng càng cảm thấy có cơ hội lừa đảo bạn, nhưng nếu bạn không bao giờ trả lời, tôi nghĩ trên thực tế bạn sẽ bị loại khỏi danh sách của chúng và cuối cùng chúng sẽ ngừng gọi cho bạn”, James Roberts.

Tuy nhiên, câu chuyện không chỉ dừng lại ở việc những kẻ lừa đảo, sử dụng trí tuệ nhân tạo (AI), để mở rộng quy mô lừa đảo của chúng.

Bởi vì công nghệ tương tự, cũng đang được sử dụng để chống lại chúng.

Tại Ngân hàng Commonwealth, ông Roberts cho biết họ đang sử dụng AI tạo sinh, để xây dựng các hệ thống, không chỉ phát hiện các vụ lừa đảo, mà còn chủ động can thiệp vào chúng.

Ông cho biết, họ đã hợp tác với một nhóm chuyên gia để tạo ra các bot, tương tác trực tiếp với những kẻ lừa đảo, khiến chúng bận rộn, tiêu tốn thời gian của chúng và thu thập thông tin tình báo có thể được sử dụng, để bảo vệ người dân.

“Một trong những điều thú vị hơn cả, là rõ ràng tôi đã nói một chút về những điều xấu mà AI tạo sinh, có thể được sử dụng, nhưng tại Ngân hàng Commonwealth, chúng tôi cũng đang thử sử dụng AI tạo sinh, cho mục đích tốt để cố gắng ngăn chặn cả những trò lừa đảo nữa. Vì vậy, chúng tôi đã hợp tác với một công ty tên là Apate AI và chúng tôi đã tạo ra đội quân bot nhỏ của riêng mình, gồm các bot thoại và bot nhắn tin, chúng sẽ trực tiếp tương tác với những kẻ lừa đảo, làm lãng phí thời gian của chúng. Cứ mỗi phút chúng nói chuyện với bot, chúng sẽ không nói chuyện với người Úc và họ không bị lừa đảo”, James Roberts.

Trong tiếng lóng, "bot" viết tắt của robot, thường có nghĩa là ai đó chơi dở hoặc hành động một cách dễ đoán hayvụng về, giống như người chơi do máy tính điều khiển (AI) trong trò chơi điện tử, nhưng nó cũng có thể ám chỉ các tài khoản lừa đảo thực sự, hoặc chỉ đơn giản là ai đó hành động như robot, hoặc thiếu hiểu biết trên mạng xã hội. Nó cũng được dùng như một lời chế giễu về kỹ năng kém, hoặc thiếu tương tác thực sự giữa người với người, tương tự như "noob", hoặc để mô tả các hồ sơ trực tuyến đáng ngờ được cho là tự động.

Ông Roberts cho biết, các cuộc hội thoại của bot cũng có thể trích xuất các chi tiết quan trọng, chẳng hạn như các tài khoản ngân hàng hoặc liên kết đáng ngờ, sau đó có thể bị chặn, có khả năng ngăn chặn nhiều nạn nhân.

“Và chúng tôi cũng sử dụng nó, giống như bạn vừa nói, chúng tôi cũng thu thập thông tin tình báo. Vì vậy, nếu bot đã chỉ cho một tài khoản ngân hàng xấu để gửi tiền vào, hoặc lấy thông tin tình báo đó, chúng tôi sẽ sử dụng nó để chặn. Vậy nên, một thông tin tình báo, có thể cứu sống khoảng 10 người Úc khác”, James Roberts.

Và đôi khi, bot không chỉ giữ chân kẻ lừa đảo trong vài phút, mà còn có thể giữ chúng ở đó lâu hơn nhiều.

“Kỷ lục hiện tại của chúng tôi là giữ người gọi trên đường dây trong 54 phút, đúng vậy, 54 phút đó, chúng không thể tiếp cận được người Úc nào khác”, James Roberts.

Trong khi đó ông Simon Smith, chuyên gia hỗ trợ an ninh mạng và chống lừa đảo từ Scam Assist, một công ty giúp thu hồi tiền bị mất do lừa đảo trực tuyến, gian lận và tội phạm mạng tài chính.

Ông Smith nói rằng, bản chất hai mặt của trí tuệ nhân tạo AI, có thể được sử dụng để khuếch đại gian lận, nhưng cũng có thể được sử dụng để ngăn chặn nó.

Ông Smith nói rằng, mọi người đã được hưởng lợi từ việc phát hiện tự động theo những cách đơn giản, chẳng hạn như điện thoại gắn cờ các số đáng ngờ, ngay cả khi họ không nghĩ đó là AI.

“Bạn biết đấy, nếu bạn có điện thoại Android, điện thoại của bạn tự động đánh dấu các cuộc gọi là đáng ngờ hoặc ý tôi là, nếu bạn muốn nói về mặt kỹ thuật. Về mặt kỹ thuật, đó chỉ là một thuật toán nói rằng, số điện thoại này được biết đến là dùng để lừa đảo, và nó chính xác đến 99% thời gian”, Simon Smith.

Bởi vì các vụ lừa đảo không phải là mới, chỉ có bao bì là mới mà thôi.

“Trí tuệ nhân tạo (AI) là một thuật ngữ rất rộng, và nó hoàn toàn hợp lệ, phải không? Và ở đâu có AI thực sự tốt, có công nghệ thực sự tốt ngoài kia, thì ở đó cũng có những kẻ lừa đảo xấu, và cũng có công nghệ xấu và những kẻ lừa đảo giỏi. Và dù có AI hay không, sẽ luôn có những kẻ lừa đảo, và bạn biết đấy, miễn là còn lòng tham, sẽ luôn có trộm cắp”, Simon Smith.

Tóm lại, Deepfake có thể là vũ khí mới nhất, nhưng biện pháp bảo vệ tốt nhất vẫn mang tính nhân văn sâu sắc, đó là ‘hãy chậm lại, kiểm tra với người mà bạn tin tưởng và đừng để sự vội vàng lấn át bản năng của bạn’.

Share
Follow SBS Vietnamese

Download our apps
SBS Audio
SBS On Demand

Listen to our podcasts
Independent news and stories connecting you to life in Australia and Vietnamese-speaking Australians.
Ease into the English language and Australian culture. We make learning English convenient, fun and practical.
Get the latest with our exclusive in-language podcasts on your favourite podcast apps.

Watch on SBS
SBS World News

SBS World News

Take a global view with Australia's most comprehensive world news service