Bóng ma của kẻ giết người máy vẫn tiếp tục. Tổng thống Putin tin vào điều gì?
Công nghệ

Bóng ma của kẻ giết người máy vẫn tiếp tục. Tổng thống Putin tin vào điều gì?

Những người ủng hộ robot quân sự (1) cho rằng vũ khí tự động cung cấp nhiều lựa chọn hơn để bảo vệ cuộc sống con người. Máy móc có thể đến gần kẻ thù hơn so với binh lính, và đánh giá chính xác mối đe dọa. Và cảm xúc đôi khi làm tê liệt khả năng đưa ra quyết định đúng đắn.

Nhiều người ủng hộ việc sử dụng robot sát thủ tin tưởng mạnh mẽ rằng chúng sẽ làm cho các cuộc chiến tranh ít đẫm máu hơn vì sẽ có ít binh lính chết hơn. Họ lưu ý rằng các robot, mặc dù không cảm thấy bị thương hại, nhưng lại miễn nhiễm với những cảm xúc tiêu cực của con người như hoảng sợ, tức giận và trả thù, những điều thường dẫn đến tội ác chiến tranh.

Các nhà hoạt động nhân quyền cũng sử dụng lập luận rằng quân đội đã giúp giảm đáng kể thương vong dân sự trong nửa thế kỷ qua, và việc robot hóa quân đội cho phép cơ chế thực thi luật chiến tranh nghiêm ngặt hơn. Họ cho rằng máy móc sẽ trở nên có đạo đức khi chúng được trang bị phần mềm buộc chúng phải tuân theo luật chiến tranh.

Tất nhiên, rất nhiều người, kể cả những người rất nổi tiếng, không có chung quan điểm này trong nhiều năm. Vào tháng 2013 năm 2, một chiến dịch quốc tế đã được phát động với khẩu hiệu (XNUMX). Trong khuôn khổ của nó, các tổ chức phi chính phủ yêu cầu một lệnh cấm hoàn toàn việc sử dụng vũ khí tự trị. Các chuyên gia từ nhiều quốc gia lần đầu tiên ngồi lại để thảo luận về chủ đề này tại Hội nghị Liên hợp quốc về giải trừ quân bị ở Geneva vào tháng 2014/XNUMX. Một báo cáo được Tổ chức Theo dõi Nhân quyền và các nhà khoa học từ Đại học Harvard công bố vài tháng sau đó nói rằng những người tự trị sẽ quá nguy hiểm - họ tự chọn mục tiêu và giết người. Đồng thời, không rõ ai phải chịu trách nhiệm.

2. Trình diễn như một phần của hành động "Ngăn chặn robot giết người"

Những gì một bầy máy bay không người lái nhỏ có thể làm

Tranh chấp xung quanh robot giết người (ROU) đã diễn ra trong nhiều năm và không hề phai nhạt. Những tháng gần đây đã mang đến những nỗ lực mới để ngăn chặn robot quân sự và làn sóng báo cáo về các dự án mới thuộc loại này, một số dự án thậm chí đang được thử nghiệm trong điều kiện chiến đấu thực tế.

Vào tháng 2017 năm XNUMX, một đoạn video cho thấy một bầy máy bay không người lái mini chết người ., trong một hành động đáng sợ. Người xem thấy rằng chúng ta không còn cần những cỗ máy chiến tranh hạng nặng, xe tăng hoặc tên lửa do Kẻ săn mồi ném ra để giết hàng loạt và bằng súng máy. Giám đốc chính Stuart Russell, giáo sư về trí tuệ nhân tạo tại Berkeley, cho biết:

Mùa xuân trước năm mươi giáo sư Các trường đại học hàng đầu thế giới đã ký kháng nghị với Viện Khoa học và Công nghệ Tiên tiến Hàn Quốc (KAIST) và đối tác của nó là Hanwha Systems. họ đã thông báo rằng họ sẽ không hợp tác với trường đại học và tổ chức các khách mời KAIST. Lý do là việc chế tạo "vũ khí tự trị" được thực hiện bởi cả hai viện. KAIST từ chối các báo cáo của phương tiện truyền thông.

Ngay sau đó ở Mỹ hơn 3 nhân viên của Google phản đối việc làm của công ty cho quân đội. Họ lo ngại rằng Google đang hợp tác với một dự án của chính phủ có tên mã là Maven nhằm mục đích sử dụng AI để nhận dạng các vật thể và khuôn mặt trong các video của máy bay không người lái quân sự. Ban lãnh đạo của công ty nói rằng mục tiêu của Maven là cứu sống và cứu mọi người khỏi công việc tẻ nhạt chứ không phải gây hấn. Những người phản đối đã không bị thuyết phục.

Phần tiếp theo của trận chiến là tuyên bố chuyên gia trí tuệ nhân tạo, bao gồm làm việc trong một dự án của Google và Elon Musk. Họ hứa sẽ không phát triển robot. Họ cũng kêu gọi các chính phủ tăng cường nỗ lực điều tiết và hạn chế các loại vũ khí này.

Một phần nào đó, tuyên bố nói rằng "quyết định lấy mạng người không bao giờ được thực hiện bởi một cỗ máy." Mặc dù quân đội trên thế giới được trang bị nhiều thiết bị tự động, đôi khi có mức độ tự chủ cao, nhưng nhiều chuyên gia lo ngại rằng trong tương lai công nghệ này có thể trở nên hoàn toàn tự chủ, cho phép giết người mà không cần sự tham gia của người điều hành và chỉ huy.

Các chuyên gia cũng cảnh báo rằng các cỗ máy giết người tự động thậm chí có thể nguy hiểm hơn "vũ khí hạt nhân, hóa học và sinh học" vì chúng có thể dễ dàng vượt ra ngoài tầm kiểm soát. Tổng cộng, vào tháng 170 năm ngoái, một lá thư dưới sự bảo trợ của Viện Cuộc sống Tương lai (FGI) đã được ký bởi 2464 tổ chức và 2019 cá nhân. Vào những tháng đầu năm XNUMX, một nhóm các nhà khoa học y tế trực thuộc FLI đã kêu gọi lại một lá thư mới cấm phát triển vũ khí điều khiển bằng trí tuệ nhân tạo (AI).

Cuộc họp hồi tháng XNUMX năm ngoái của LHQ tại Gniewo về quy định pháp lý khả dĩ của quân đội "robot giết người" đã kết thúc thành công ... máy móc. Một nhóm các quốc gia, bao gồm Hoa Kỳ, Nga và Israel, đã ngăn chặn công việc tiếp tục đưa ra lệnh cấm quốc tế đối với các loại vũ khí này (dự thảo Công ước về Cấm hoặc Hạn chế Sử dụng Một số Vũ khí Thông thường, CCW). Không phải ngẫu nhiên mà các quốc gia này được biết đến với công trình nghiên cứu các hệ thống vũ khí tự động và robot tiên tiến.

Nga tập trung vào robot chiến đấu

Tổng thống Vladimir Putin thường nói về các hệ thống AI quân sự và robot chiến đấu:

-.

nói chuyện cởi mở về sự phát triển của vũ khí tự trị. Tổng tham mưu trưởng các lực lượng vũ trang của nước này, Tướng Valery Gerasimov, mới đây đã nói với hãng thông tấn quân sự Interfax-AVN rằng việc sử dụng robot sẽ là một trong những đặc điểm chính của các cuộc chiến tranh trong tương lai. Ông nói thêm rằng Nga đang cố gắng hoàn toàn tự động hóa chiến trường. Các ý kiến ​​tương tự cũng được đưa ra bởi Phó Thủ tướng Dmitry Rogozin và Bộ trưởng Quốc phòng Sergei Shoigu. Chủ tịch Ủy ban Hội đồng Liên đoàn về Quốc phòng và An ninh Viktor Bondarev cho biết, Nga đang nỗ lực phát triển Công nghệ Rojuđiều này sẽ cho phép các mạng bay không người lái hoạt động như một thực thể duy nhất.

Điều này không có gì đáng ngạc nhiên nếu chúng ta nhớ rằng các teletanks đầu tiên được phát triển ở Liên Xô vào những năm 30. Chúng được sử dụng vào đầu Thế chiến thứ hai. Ngày nay nước Nga cũng tạo ra rô bốt xe tăng ngày càng trở nên tự chủ hơn.

Nhà nước của Putin gần đây đã cử người của mình tới Syria Phương tiện chiến đấu không người lái Uran-9 (3). thiết bị mất liên lạc với các điểm kiểm soát mặt đất, gặp vấn đề với hệ thống treo, và vũ khí của nó không hoạt động hoàn hảo và không bắn trúng mục tiêu đang di chuyển. Nghe có vẻ không nghiêm trọng lắm, nhưng nhiều người coi trận càn quét Syria là một cuộc thử nghiệm chiến đấu tốt cho phép người Nga cải tiến cỗ máy này.

Roscosmos đã thông qua kế hoạch sơ bộ để gửi hai robot lên Trạm vũ trụ quốc tế vào tháng XNUMX năm nay. Fedor (4) trong Liên minh không người lái. Không giống như một tải, nhưng. Như trong phim RoboCop, Fedor sử dụng vũ khí và thể hiện tài thiện xạ chết người trong các bài tập bắn súng.

Câu hỏi đặt ra là, tại sao một robot trong không gian lại được trang bị vũ khí? Có những nghi ngờ rằng vấn đề không chỉ nằm trong các ứng dụng mặt đất. Trong khi đó trên Trái đất, nhà sản xuất vũ khí Nga Kalashnikov đã cho thấy một hình ảnh người máy Igorekmặc dù nó gây ra rất nhiều tiếng cười, nhưng tín hiệu rằng công ty đang nghiên cứu nghiêm túc về các phương tiện chiến đấu tự hành. Vào tháng 2018 năm XNUMX, Kalashnikov thông báo rằng ông đang chế tạo một loại vũ khí mà ông sử dụng để đưa ra quyết định "bắn hay không bắn".

Thông tin này cần được thêm vào báo cáo rằng thợ chế tạo súng người Nga Digtyarev đã phát triển một khẩu súng nhỏ xe tăng tự trị Nerekht có thể tự di chuyển âm thầm về phía mục tiêu và sau đó phát nổ với lực mạnh để phá hủy các tòa nhà khác hoặc toàn bộ. Cũng như Tập đoàn quân xe tăng T14 , niềm tự hào của lực lượng vũ trang Nga, được thiết kế để có thể điều khiển từ xa và lái xe không người lái. Sputnik tuyên bố rằng các kỹ sư quân sự Nga đang nghiên cứu để biến T-14 trở thành một phương tiện bọc thép tự hành hoàn toàn.

Chỉ thị phản đối

Bản thân quân đội Mỹ đã áp đặt một giới hạn khá rõ ràng về mức độ tự chủ của vũ khí của họ. Vào năm 2012, Bộ Quốc phòng Hoa Kỳ đã ban hành Chỉ thị 3000.09, trong đó quy định rằng con người nên có quyền phản đối các hành động của robot có vũ trang. (mặc dù có thể có một số ngoại lệ). Chỉ thị này vẫn có hiệu lực. Chính sách hiện tại của Lầu Năm Góc là nhân tố quyết định trong việc sử dụng vũ khí phải luôn là một con người và phán đoán đó phải là như vậy. tuân theo luật chiến tranh.

Mặc dù người Mỹ đã sử dụng máy bay, Predator, Reaper và nhiều siêu máy bay khác trong nhiều thập kỷ nhưng chúng không phải là và không phải là những mẫu máy bay tự hành. Chúng được điều khiển bởi các nhà khai thác từ xa, đôi khi từ khoảng cách vài nghìn km. Một cuộc thảo luận sôi nổi về quyền tự chủ của các loại máy móc kiểu này bắt đầu với buổi ra mắt nguyên mẫu. máy bay không người lái X-47B (5), không chỉ bay độc lập mà còn có thể cất cánh từ tàu sân bay, hạ cánh trên đó và tiếp nhiên liệu trên không. Ý nghĩa cũng là bắn hoặc ném bom mà không cần sự can thiệp của con người. Tuy nhiên, dự án vẫn đang trong quá trình thử nghiệm và xem xét.

5. Các cuộc thử nghiệm máy bay không người lái X-47B trên tàu sân bay Mỹ

Năm 2003, Bộ Quốc phòng bắt đầu thử nghiệm một robot nhỏ giống như xe tăng. KHOẢNG CÁCH được trang bị một khẩu súng máy. Năm 2007, anh được cử đến Iraq. tuy nhiên, chương trình đã kết thúc sau khi robot bắt đầu hoạt động thất thường, di chuyển súng trường một cách thất thường. Kết quả là quân đội Mỹ đã từ bỏ việc nghiên cứu vũ trang robot mặt đất trong nhiều năm.

Đồng thời, Quân đội Mỹ đã tăng chi tiêu cho các hoạt động từ 20 triệu USD năm 2014 lên 156 triệu USD vào năm 2018. Ngân sách này đã tăng lên 2019 triệu đô la vào năm 327. Đây là mức tăng tích lũy 1823% chỉ trong vài năm. Các chuyên gia cho rằng sớm nhất vào năm 2025, quân đội Mỹ có thể có một chiến trường nhiều lính robot hơn con người.

Gần đây, rất nhiều tranh cãi đã được gây ra và tuyên bố của Quân đội Mỹ Dự án ATLAS () - tự động. Trên các phương tiện truyền thông, điều này được coi là vi phạm chỉ thị 3000.09 đã nói ở trên. Tuy nhiên, quân đội Hoa Kỳ phủ nhận và đảm bảo rằng việc loại trừ một người khỏi chu trình ra quyết định là không cần thiết.

AI nhận dạng cá mập và dân thường

Tuy nhiên, những người bảo vệ vũ khí tự động lại có những lập luận mới. hồ sơ Ronald Arkin, một nhà chế tạo người máy tại Viện Công nghệ Georgia, tuyên bố trong các ấn phẩm của mình rằng Trong chiến tranh hiện đại, vũ khí thông minh là điều cần thiết để tránh thương vong cho dân thường, vì các kỹ thuật máy học có thể giúp phân biệt hiệu quả giữa chiến binh và dân thường, cũng như các mục tiêu quan trọng và không quan trọng.

Một ví dụ về các kỹ năng AI như vậy là tuần tra các bãi biển của Úc. máy bay không người lái Little Ripperđược trang bị hệ thống SharkSpotter do Đại học Công nghệ Sydney phát triển. Hệ thống này tự động quét nước để tìm cá mập và cảnh báo cho người điều khiển khi thấy điều gì đó không an toàn. (6) Nó có thể nhận dạng người, cá heo, thuyền, ván lướt sóng và các vật thể dưới nước để phân biệt với cá mập. Nó có thể phát hiện và xác định khoảng XNUMX loài khác nhau với độ chính xác cao.

6. Cá mập được công nhận trong hệ thống SharkSpotter

Các phương pháp học máy tiên tiến này giúp tăng độ chính xác của trinh sát trên không lên hơn 90%. Để so sánh, một người điều khiển con người trong một tình huống tương tự có thể nhận ra chính xác 20-30% vật thể trong các bức ảnh chụp từ trên không. Ngoài ra, nhận dạng vẫn được xác minh bởi con người trước khi có báo động.

Trên chiến trường, người điều khiển, nhìn thấy hình ảnh trên màn hình, khó có thể xác định được những người trên mặt đất là máy bay chiến đấu với khẩu AK-47 trên tay hay là nông dân với khẩu súng trường chẳng hạn. Arkin lưu ý rằng mọi người có xu hướng "xem những gì họ muốn xem", đặc biệt là trong những tình huống căng thẳng. Hiệu ứng này đã góp phần khiến tàu USS Vincennes của Iran vô tình bắn rơi một máy bay Iran vào năm 1987. Tất nhiên, theo ý kiến ​​của ông, vũ khí do AI điều khiển sẽ tốt hơn các loại "bom thông minh" hiện tại, vốn không thực sự có tri giác. Tháng XNUMX năm ngoái, một tên lửa dẫn đường bằng laser của Ả Rập Xê Út đã bắn trúng một chiếc xe buýt chở đầy học sinh ở Yemen, khiến XNUMX trẻ em thiệt mạng.

Arkin cho biết trong tạp chí Cơ học phổ biến: “Nếu một chiếc xe buýt trường học được dán nhãn thích hợp, việc xác định nó trong một hệ thống tự hành có thể tương đối dễ dàng.

Tuy nhiên, những lập luận này dường như không thuyết phục được những người vận động chống lại những kẻ giết người tự động. Ngoài sự đe dọa của robot giết người, phải tính đến một tình huống quan trọng khác. Ngay cả một hệ thống "tốt" và "chu đáo" có thể bị tấn công và chiếm đoạt bởi những người rất xấu. Khi đó mọi lý lẽ bảo vệ thiết bị quân sự đều mất đi lực lượng.

Thêm một lời nhận xét