Kỷ nguyên mới của AI: Rủi ro với an ninh toàn cầu?

Hệ thống AI ngày càng phát triển cũng đồng nghĩa với nguy cơ rủi ro về an ninh toàn cầu trong tương lai tăng cao.

Trước bối cảnh AI có thể có nhiều tác động đa chiều đối với quan hệ quốc tế nói chung và chiến lược phát triển của từng quốc gia nói riêng, Tiến sĩ Ngô Di Lân, nhà nghiên cứu chính sách đối ngoại tại Viện Nghiên cứu Chiến lược ngoại giao - Học viện Ngoại giao, đã chia sẻ về tầm ảnh hưởng của AI đến an ninh toàn cầu. Cùng với đó, là những nhận định về tương lai do máy móc “đồng kiến tạo” và lời khuyên dành cho thế hệ trẻ.

TS. Ngô Di Lân (Ảnh: NVCC).

Phóng viên: Trong cuốn "Canh bạc AI" (2023), Tiến sĩ dự báo AI sẽ “tái định nghĩa khái niệm đi làm” thông qua tự động hóa. Liệu xu hướng này có làm trầm trọng thêm bất bình đẳng giữa các quốc gia phát triển và đang phát triển, khi 80% nền tảng AI đám mây tập trung vào 5 tập đoàn Mỹ - Trung không, thưa Tiến sĩ?

Tiến sĩ Ngô Di Lân: Theo tôi, chắc chắn là có. Cuộc chơi AI thực tế đang được dẫn dắt bởi một số ít quốc gia và tập đoàn khổng lồ, trong khi phần lớn thế giới mới chỉ đang “xem cuộc chơi”. Nói cách khác, chúng ta đang đối mặt với một sự bất đối xứng về năng lực ở quy mô toàn cầu. Các nước phát triển nắm trong tay hạ tầng điện toán, dữ liệu và nhân lực AI, còn các nước đang phát triển lại chủ yếu tiêu thụ công nghệ dưới dạng thuê bao hoặc nền tảng đóng gói sẵn. Về lâu dài, điều này sẽ làm trầm trọng thêm khoảng cách về năng suất, giá trị gia tăng và cơ hội vươn lên.

Phóng viên: Trong cuốn "Trò chơi quyền lực" (2025), Tiến sĩ nhận định AI là “thách thức then chốt của nhân loại” khi tái định hình cán cân quyền lực toàn cầu. Vậy theo Tiến sĩ, đâu là rủi ro lớn nhất khi các cường quốc tích hợp AI vào chiến lược địa chính trị?

Tiến sĩ Ngô Di Lân: Theo tôi, rủi ro lớn nhất nằm ở việc các nước có thể tin tưởng vào năng lực của AI quá mức trong việc ra quyết định quân sự và an ninh, mà bỏ qua những giới hạn rất thực tế của công nghệ này. Trong xu thế mới, các quốc gia có xu hướng giao phó ngày càng nhiều quyền định đoạt cho các hệ thống AI, với kỳ vọng rằng những cỗ máy sẽ đưa ra lựa chọn tối ưu, nhanh hơn và khách quan hơn con người. Tuy nhiên, chính tốc độ của AI lại là con dao hai lưỡi.

AI có thể phân tích, xử lý dữ liệu nhanh hơn con người rất nhiều nhưng nó không thể thay thế được tư duy chiến lược và kinh nghiệm chính trị. Khi quyết định phải được đưa ra trong tích tắc, giữa hàng loạt mô phỏng và cảnh báo do máy tính đưa ra, con người rất dễ bị cuốn theo khuyến nghị của thuật toán mà đánh mất năng lực phản biện độc lập, tính suy xét kỹ lưỡng. Chính điều này đã làm tăng nguy cơ xảy ra những quyết định thiếu kiểm soát, nhất là trong những tình huống khủng hoảng.

AI chỉ là một công cụ hỗ trợ, không bao giờ được phép thay thế hoàn toàn con người trong các quyết định sống còn liên quan đến hòa bình và chiến tranh.

Cuốn sách “Trò chơi quyền lực: Quá khứ, hiện tại và tương lai của trật tự thế giới” của TS. Ngô Di Lân (Ảnh: Omega+).

Phóng viên: Mô phỏng của RAND (2023) đã cảnh báo hệ thống vũ khí tự hành có thể rút ngắn thời gian phản ứng quân sự từ 30 phút xuống 3 giây. Là nghiên cứu viên về xung đột vũ trang, Tiến sĩ có cho rằng AI sẽ trở thành “ngòi nổ” cho chiến tranh hạt nhân do lỗi thuật toán?

Tiến sĩ Ngô Di Lân: Việc AI góp phần đẩy thế giới đến bờ vực chiến tranh hạt nhân là hoàn toàn có thể xảy ra, nhưng điều đó không đồng nghĩa với việc chúng ta nên phóng đại hoặc đơn giản hóa vấn đề. Bản chất của chiến tranh hạt nhân không nằm ở vũ khí hay thuật toán, mà nằm ở con người, ở nỗi sợ, ở sai lầm trong nhận thức chiến lược và áp lực chính trị.

AI chỉ làm cho những yếu tố này trở nên nguy hiểm hơn nếu con người quá phụ thuộc vào máy móc để ra quyết định sống còn. Khi hệ thống cảnh báo sớm được điều hành bởi máy móc, khi quyết định chiến lược tấn công được đề xuất bởi các mô hình dữ liệu, thì khoảng không dành cho do dự có nguy cơ bị xóa bỏ.

Tuy nhiên, tôi không tin rằng chỉ riêng AI sẽ là ngòi nổ cho chiến tranh hạt nhân. Nếu một cuộc chiến tranh hạt nhân nổ ra, trách nhiệm cuối cùng vẫn nằm ở các nhà lãnh đạo chính trị và quân sự chứ không phải thuật toán hay dòng code nào.

Vì thế, câu hỏi đặt ra không phải là “chúng ta có nên sử dụng AI trong lĩnh vực hạt nhân không?” mà là “chúng ta nên sử dụng nó như thế nào?”, và ai sẽ chịu trách nhiệm cho quyết định cuối cùng. Đó là những câu hỏi mà các cường quốc sở hữu vũ khí hạt nhân cần thẳng thắn đối diện từ bây giờ.

Phóng viên: Nghiên cứu của Insikt Group (2024) ghi nhận 82 vụ deepfake chính trị tại 38 quốc gia, bao gồm video giả mạo lãnh đạo EU và châu Á. Vậy Tiến sĩ đánh giá thế nào về nguy cơ AI trở thành công cụ thao túng niềm tin công chúng?

Tiến sĩ Ngô Di Lân: Tôi cho rằng đây là một trong những mặt tối nguy hiểm bậc nhất của AI. Khi người dân không còn phân biệt được đâu là thật, đâu là giả, niềm tin xã hội sẽ bị xói mòn nghiêm trọng. Sự đứt gãy niềm tin này không chỉ ảnh hưởng đến cá nhân, mà còn làm suy yếu khả năng đồng thuận và gắn kết của cả một cộng đồng hay một quốc gia.

Hiện nay, có nhiều công nghệ phái sinh từ AI như deepfake, giọng nói nhân tạo, hoặc các mô hình tạo sinh hình ảnh, văn bản tinh vi đến mức gần như không thể phân biệt với thật. Nếu chúng bị khai thác bởi các thế lực xấu có thể trở thành công cụ thao túng nhận thức nguy hiểm chưa từng có. Đặc biệt, trong bối cảnh Việt Nam đang thúc đẩy chuyển đổi số rất mạnh mẽ, nguy cơ người dân hoặc các cơ quan chính phủ bị tấn công bằng các công cụ giả mạo kỹ thuật số là điều hoàn toàn có thể xảy ra. Điều đó đòi hỏi chúng ta phải chủ động phòng vệ, không chỉ bằng các công nghệ phát hiện nội dung giả mạo, mà còn bằng chiến lược dài hạn nhằm nâng cao năng lực nhận diện, phản biện và tư duy số của người dân.

Suy cho cùng, công nghệ không xấu. Chúng ta cần chuẩn bị hành trang thật kỹ để có thể sống trong thế giới tương lai, nơi sự thật có thể bị bóp méo dễ dàng.

Công nghệ deepfake đang ngày càng phát triển (Ảnh: Facebook).

Phóng viên: Vậy cơ chế nào có thể ngăn chặn AI trở thành công cụ chống lại nền dân chủ, khi người dân tin vào những thông tin sai lệch do AI tạo ra hay không, thưa Tiến sĩ?

Tiến sĩ Ngô Di Lân: Với tôi, không có giải pháp đơn giản hay tuyệt đối. Quan điểm của tôi, như đã chia sẻ ở trên, nếu muốn bảo vệ hệ thống chính trị thì đừng chỉ nhìn vào công nghệ, hãy nhìn vào con người, cụ thể là năng lực nhận diện và khả năng tự phòng vệ của xã hội. Công nghệ phòng chống deepfake dù có hiện đại đến đâu cũng không thể thay thế được một nền giáo dục khai phóng, cởi mở, nơi người dân được rèn luyện tư duy phản biện ngay từ nhỏ. Đặc biệt, việc xây dựng một không gian truyền thông lành mạnh cũng vô cùng quan trọng để người dân được tiếp cận với thông tin khách quan và trung thực.

Ngoài ra, cần có các cơ chế trách nhiệm rõ ràng với các nền tảng mạng xã hội và nhà phát triển AI. Chúng ta không thể để những thực thể nắm giữ quyền lực công nghệ toàn cầu lại trốn tránh trách nhiệm xã hội. Họ cần phải có trách nhiệm quản lý, giám sát và phát triển AI do chính họ tạo ra.

Cuối cùng, chính phủ các nước cũng cần chủ động hơn trong việc thiết lập các chuẩn mực ứng xử quốc tế về AI, giống như cách nhân loại từng làm với vũ khí hạt nhân. Nếu không kiểm soát được luật chơi, chúng ta sẽ mãi chỉ là “người chơi” bị động trong một ván cờ do kẻ khác điều khiển.

Phóng viên: Dựa trên kinh nghiệm nghiên cứu, Tiến sĩ có lời khuyên nào cho thế hệ trẻ Việt Nam giữa việc sử dụng AI và nâng cao nhận thức về chủ quyền quốc gia?

Tiến sĩ Ngô Di Lân: Tôi tin rằng trong kỷ nguyên mới, chủ quyền quốc gia không còn chỉ giới hạn ở biên giới địa lý hay lãnh thổ vật lý mà còn nằm ở khả năng làm chủ tư duy và công nghệ. Làm chủ không có nghĩa là phải cạnh tranh trực tiếp với các cường quốc công nghệ như Mỹ, Trung Quốc, mà là phải có đủ bản lĩnh để hiểu rõ những công nghệ mình đang dùng, đủ tỉnh táo để đặt ra giới hạn cho bản thân.

Vậy nên, tôi muốn nhắn gửi một điều: đừng sợ hãi trí tuệ nhân tạo, cũng đừng thần thánh hóa nó. AI không còn là “tương lai” mà đã là hiện tại. Quan trọng hơn cả, AI không thể tự thân quyết định vận mệnh thế giới. Chính các bạn, những con người đang sống, học tập và tạo ra giá trị mỗi ngày mới là những người sẽ định hình AI phục vụ ai, phục vụ cho điều gì và theo nguyên tắc nào.

Tôi hy vọng thế hệ trẻ Việt Nam sẽ không chỉ học cách sử dụng AI, mà còn học cách chất vấn về giá trị, về rủi ro và về trách nhiệm khi đưa AI vào cuộc sống. Đó mới là tinh thần của một công dân toàn cầu, dám sống có trách nhiệm với tương lai chung, không bị cuốn theo làn sóng công nghệ một cách vô thức. Đó cũng là tinh thần của một người Việt Nam biết giữ gìn bản sắc, không đánh mất mình trong cuộc chơi lớn của thế giới.

Phóng viên: Trân trọng cảm ơn Tiến sĩ Ngô Di Lân!

Thực hiện: Ngọc Hà - Duy Nam - Minh Đức

Bài viết hay? Hãy đánh giá bài viết
user image
user image
User
Ý KIẾN

Nhiều địa phương tại Hà Nội đã tìm cách biến rác thải thành tài nguyên, tạo hướng đi bền vững trước áp lực ô nhiễm từ chất thải chăn nuôi.

Mạng lưới không gian văn hóa sáng tạo Hà Nội sẽ được hình thành trong thời gian tới, thúc đẩy các hoạt động sáng tạo, khẳng định vị thế Hà Nội trong Mạng lưới các thành phố sáng tạo của UNESCO.

Phó Chủ tịch UBND thành phố Hà Nội Dương Đức Tuấn yêu cầu Đảng bộ đoàn kết nội bộ, nêu cao tinh thần trách nhiệm, phấn đấu hoàn thiện hồ sơ để khởi công hàng loạt công trình giao thông trọng điểm của Thủ đô trong năm nay.

Bộ Xây dựng đã phê duyệt dự án mở rộng cao tốc Bắc – Nam phía Đông đoạn Cam Lộ – La Sơn từ hai lên bốn làn xe, với tổng vốn gần 6.500 tỷ đồng.

Lễ hội pháo hoa quốc tế Đà Nẵng sẽ khai mạc với màn so tài giữa đội chủ nhà Đà Nẵng Việt Nam và đương kim vô địch Phần Lan vào tối 31/5.

Đoàn công tác số 25 gồm 100 lãnh đạo, phóng viên các cơ quan báo chí trên cả nước đã đi thăm quân và dân huyện đảo Trường Sa và nhà giàn DK1 trên thềm lục địa phía Nam của Tổ quốc, từ ngày 23-29/5.