Rất nhiều tiểu thuyết và phim ảnh đã tưởng tượng ra tương lai robot cạnh tranh với con người. Nhưng một sự việc mới được tiết lộ liên quan đến thiết bị bay không người lái (drone) đã khiến chúng ta phải nghiêm túc nhìn nhận lại vấn đề này. Phải chăng viễn cảnh sắp trở thành sự thật?

Theo một bản báo cáo mới đây của Hội đồng Bảo an Liên hợp Quốc, một thiết bị bay không người lái (drone) của quân đội có thể đã tấn công con người một cách tự động mà không hề được ra lệnh làm điều đó. Đây là lần đầu tiên một trường hợp như vậy được ghi nhận.

Lần đầu tiên drone tự ý tấn công con người?

Thiết bị bay Kargu-2 được sử dụng trong quân sự (Ảnh: Internet).
Thiết bị bay Kargu-2 được sử dụng trong quân sự (Ảnh: Internet).

Bản báo cáo được công bố hồi tháng 3 năm nay khẳng định rằng chiếc drone 4 cánh quạt mang tên Kargu-2 có tích hợp trí tuệ nhân tạo (AI) được sản xuất bởi công ty công nghệ quân đội STM của Thổ Nhĩ Kỳ đã tấn công những binh sĩ đang rút lui thuộc phe trung thành với tướng Khalifa Haftar trong cuộc nội chiến ở Libya.

Bản báo cáo dài 548 trang của Nhóm Chuyên gia về Libya thuộc Hội đồng Bảo an Liên Hợp Quốc không cho biết chi tiết về việc liệu có người thương vong trong sự việc này hay không, nhưng nó đã làm dấy lên câu hỏi: phải chăng đã đến lúc thực hiện các nỗ lực quy mô toàn cầu để kiểm soát, thậm chí cấm sử dụng những loại robot sát thủ tự động?

Chiếc drone được nhà sản xuất chỉ rõ mục đích sử dụng là tấn công (Ảnh: Internet).
Chiếc drone được nhà sản xuất chỉ rõ mục đích sử dụng là tấn công (Ảnh: Internet).

Trong khoảng một năm vừa qua, Chính quyền Thỏa thuận Quốc gia của Libya được Liên Hợp Quốc công nhận đã đẩy lùi Lực lượng Ủng hộ tướng Haftar (HAF) ra khỏi thủ đô Tripoli của nước này, và chiếc drone gây ra sự cố trên có thể đã được sử dụng từ tháng 1 năm 2020.

Theo mô tả trong bản báo cáo của Liên Hợp Quốc, các binh sĩ HAF đang rút lui cùng với đoàn xe hậu cần đã bị truy đuổi và khóa mục tiêu từ xa bởi những thiết bị bay chiến đấu không người lái hoặc các hệ thống vũ khí tự động gây sát thương, chẳng hạn như STM Kargu-2.

Kargu-2 được sử dụng trong thực địa (Ảnh: Internet).
Kargu-2 được sử dụng trong thực địa (Ảnh: Internet).

Theo thông tin từ nhà sản xuất STM, Kargu là một chiếc drone có khả năng phân loại mục tiêu dựa trên công nghệ học máy (machine learning) để lựa chọn và khóa các mục tiêu tấn công, đồng thời chúng cũng có thể tập hợp thành một đội khoảng 20 chiếc cùng “hợp đồng tác chiến” với nhau.

Theo lời của các chuyên gia trong bản báo cáo, hệ thống vũ khí sát thủ tự động này được lập trình để tấn công các mục tiêu mà không cần phải kết nối dữ liệu với người điều khiển. Cụ thể cơ chế vận hành của Kargu-2 là như thế nào? Về cơ bản đó là một chiếc drone 4 cánh quạt được thiết kế để chở theo vũ khí sát thương. Đoạn video dưới đây mô tả chi tiết khả năng tấn công tự động của thiết bị này.

Đầu tiên người điều khiển sẽ tải chương trình hành động vào phần mềm của thiết bị, sau đó cho nó bay lên. Chiếc drone sẽ di chuyển theo hành trình định sẵn, xác định những mục tiêu tiềm năng rồi thực hiện hành vi lao xuống mục tiêu và tự “đánh bom liều chết” với một gói chất nổ giống như đạn ghém vậy.

Trong quân sự, quy trình này được gọi bằng cái tên “fire and forget”, nghĩa là sau khi đã phóng vũ khí (fire) thì người điều khiển có thể “quên đi” (forget) và không cần can thiệp gì thêm. Vũ khí sẽ tự đi tìm mục tiêu và thực hiện nhiệm vụ của mình.

Đã đến lúc đặt ra các biện pháp mạnh để kiểm soát robot và trí tuệ nhân tạo?

Trước đây đã có nhiều chuyên gia về robot và các nhà nghiên cứu trí tuệ nhân tạo – bao gồm cả tỷ phú Elon Musk và nhiều nhân vật nổi tiếng khác như nhà vật lý Stephen Hawking và nhà khoa học Noam Chomsky – đã lên tiếng kêu gọi phải đặt lệnh cấm đối với các vũ khí tự động tấn công, chẳng hạn như các thiết bị có khả năng tìm kiếm và tiêu diệt những người nhất định sau khi được lập trình.

Elon Musk từng kêu gọi phải cấm vũ khí tự động (Ảnh: Internet).
Elon Musk từng kêu gọi phải cấm vũ khí tự động (Ảnh: Internet).

Các chuyên gia đã cảnh báo rằng: kho dữ liệu dùng để huấn luyện các robot sát thủ tự động này nhận diện và phân loại đối tượng mục tiêu – chẳng hạn như con người, xe cộ – có thể không đủ phức tạp và chính xác, từ đó dẫn đến việc hệ thống trí tuệ nhân tạo có nguy cơ “học sai” và gây ra nhiều hậu quả khôn lường khi được sử dụng trong thực tế.

Một cảnh báo khác liên quan đến “hộp đen” của công nghệ học máy, trong đó quy trình đưa ra quyết định của hệ thống trí tuệ nhân tạo thường khá mơ hồ và có nguy cơ các thiết bị hoàn toàn tự động của quân đội tấn công sai mục tiêu mà rất khó làm sáng tỏ được nguyên nhân.

Drone có thể liên kết với nhau thành một đội quân tác chiến (Ảnh: Internet).
Drone có thể liên kết với nhau thành một đội quân tác chiến (Ảnh: Internet).

Một số chuyên gia về thiết bị bay không người lái tin rằng khi nhiều chiếc drone tự động như vậy cùng liên lạc và hợp tác với nhau để thực hiện nhiệm vụ thì nguy cơ rủi ro sẽ còn lớn hơn rất nhiều, bởi sự giao tiếp giữa các thiết bị làm cho bất cứ một lỗi sai nào xảy ra ở một “cá nhân” cũng có thể được chia sẻ sang các thiết bị khác.

Các loại vũ khí tự động ban đầu trông có thể rất đơn giản như một chiếc drone vậy. Sự việc này đã cho thấy một thách thức quan trọng đối với các nỗ lực kiểm soát hoặc cấm hẳn vũ khí tự động, đó là làm sao chúng ta biết chắc chắn chúng đã thực sự được tạo ra hay chưa?

Liệu còn có những loại vũ khí tự động công nghệ cao nào mà chúng ta chưa biết tới? (Ảnh: Internet).
Liệu còn có những loại vũ khí tự động công nghệ cao nào mà chúng ta chưa biết tới? (Ảnh: Internet).

Trên thực tế Kargu-2 có vẻ ngoài giống như tất cả những chiếc drone 4 cánh quạt bình thường. Điểm khác biệt lớn nhất nằm ở phần mềm điều khiển, nhưng rất khó để thu thập được bộ phận này từ những mảnh vụn sau khi thiết bị phát nổ để phục vụ công tác điều tra phân tích.

Điều này lại đặt ra câu hỏi: liệu các lực lượng quân sự có thể cải tạo drone dân sự trở thành những sát thủ để tấn công con người hay không?

Những người biểu tình trong chiến dịch kêu gọi ban hành lệnh cấm đối với các robot sát thủ (Ảnh: Internet).
Những người biểu tình trong chiến dịch kêu gọi ban hành lệnh cấm đối với các robot sát thủ (Ảnh: Internet).

Trong lịch sử nhân loại cũng đã từng xuất hiện một vài sự kiện mang tính bước ngoặt như vậy, chẳng hạn như vụ thử bom nguyên tử tại bang New Mexico của nước Mỹ năm 1945. Những khoảnh khắc đó có ảnh hưởng sâu rộng đến mức đưa cả thế giới bước sang một kỷ nguyên kinh tế – xã hội và khoa học mới.

Sự kiện tại Libya lần này cũng có thể là một bước ngoặt như vậy, đánh dấu thời điểm con người không còn toàn quyền kiểm soát đối với các loại vũ khí, mà thay vào đó những cỗ máy sẽ tự ra quyết định tấn công và tiêu diệt mục tiêu.

Mời bạn xem thêm những bài viết liên quan của BlogAnChoi:

Hãy đón xem BlogAnChoi mỗi ngày để nhận được nhiều thông tin thú vị cho cuộc sống bạn nhé!

Xem thêm

So sánh kính thực tế ảo Vision Pro và Meta Quest Pro: Liệu Apple có thắng Meta?

Nói đến kính thực tế ảo thì Meta Quest Pro của Meta đã thống trị thị trường suốt nhiều năm qua. Nhưng mới đây Apple đã ra mắt Vision Pro là sản phẩm kính thực tế tăng cường cao cấp có nhiều điểm khác biệt với Meta Quest Pro. Vậy thiết bị nào có khả năng chiến thắng trong ...
Theo dõi bình luận
Thông báo về
guest
3 Bình luận
Bình chọn nhiều nhất
Mới nhất Cũ nhất
Phản hồi nội tuyến
Xem tất cả bình luận
Mộc Chi

Điểm 10 chất lượng từ hình thức đến nội dung cho bài viết này

Mộc Chi

Điểm 10 chất lượng cho bài viết

Meow.Gaminz

Gom lúa để sắm ngay mới được