technika
Autor: Robert Czulda | dodano: 2015-05-25
Kuzyni Terminatora

Fot. DARPA

Maszyny na polu walki odgrywają coraz ważniejszą rolę, a każda ich generacja jest bardziej autonomiczna niż poprzednia. Czy doczekamy się robotów, które samodzielnie będą decydować o otwarciu ognia do wroga?

O tym, że roboty stają się na współczesnym polu walki niemal niezastąpione, nie trzeba chyba już nikogo przekonywać. Większość z nich wykonuje zadania głównie defensywne, jak chociażby monitoring (automatyczne wieżyczki obserwacyjne), rozbrajanie (roboty saperskie) czy rozpoznanie (bezzałogowe statki latające). Jednak w wojskowych laboratoriach od pewnego czasu próbuje się stworzyć roboty w pełni autonomiczne. Maszyny, które będą podejmować decyzje o zachowaniu się na polu bitwy (m.in. o zaatakowaniu samodzielnie ­wybranego celu) bez udziału człowieka.

Teoretycznie nie ma w tym nic złego – zimna kalkulacja maszyny może przecież sprawić, że nie zginie nikt przypadkowy, co może się zdarzyć, gdy żołnierz jest zmęczony lub po prostu przestraszony i źle oceni ryzyko. Robot nie kieruje się uprzedzeniami ani nienawiścią, potrafi lepiej celować. Inni eksperci uważają jednak, że to scenariusz przerażający – każdy żołnierz wie bowiem, czym jest prawo konfliktów zbrojnych i co jest dozwolone, a co nie. Ma też wrodzoną empatię i wdrożoną w wyniku wychowania moralność. Wie, kiedy należy się zatrzymać. Maszyna, nawet najbardziej zaawansowana i nowoczesna, postępuje wyłącznie zgodnie z zapisanym w niej programem.

Zwolennicy daleko idącej robotyzacji pola walki prócz argumentu, iż roboty będą lepszymi, a więc bardziej precyzyjnymi wojownikami, przytaczają jeszcze jeden – na wojnie przestaną ginąć żołnierze (przynajmniej jednej strony – tej dysponującej odpowiednią technologią). Trudno jednak nie zauważyć, że postępująca robotyzacja działań zbrojnych może sprawić, iż w obliczu niewielkiego ryzyka kosztów społecznych politycy łatwiej mogą podejmować decyzję o rozpoczęciu wojny. Już teraz wysłanie wojsk chociażby do Iraku czy Syrii jest praktycznie niemożliwe z powodu presji społecznej, podczas gdy naloty z wykorzystaniem bezzałogowców na cele w Jemenie, Somalii, Afganistanie czy Pakistanie nie przyciągają większej społecznej uwagi. Z prostego powodu – w tego rodzaju operacjach nie giną „nasi chłopcy”, tylko maszyny. – Roboty wojenne, które się nie męczą, gotowe do działania na naciśnięcie guzika, tworzą zagrożenie permanentnego konfliktu zbrojnego – alarmował raport ONZ z maja 2013 r.

Sztuczna moralność

– Roboty nie złoszczą się i nie szukają zemsty, ale też nie okazują empatii żadnej ze stron – przestrzega prof. robotyki Noel Sharkey z University of Sheffield, krytyk autonomicznych dronów. Dodaje, że skonstruowanie w pełni samodzielnych robotów bojowych nie jest już obecnie szczególnie wymagającym wyzwaniem technicznym. Problemem jest jednak stworzenie nie tyle maszyn autonomicznych, ile „samodzielnie myślących”, czyli właściwie interpretujących otoczenie, a także zasady prawa wojennego. W tym dwie jego re­guły podstawowe – rozróżniania i proporcjonalności. Konwencje genewskie głoszą, że zakazane jest „zabijać lub ranić wroga, który złożył broń lub jest bezbronny i który się poddał”. Czy autonomiczne roboty będą potrafiły właściwie ocenić sytuację na dynamicznie zmieniającym się polu bitwy? Jak poradzą sobie np. z odróżnieniem cywili od uzbrojonych bojowników w „nieformalnym” odzieniu? Zdaniem Sharkeya roboty nie mają czegoś, co Peter Singer – dyrektor Centrum dla Bezpieczeństwa i Wywiadu XXI Wieku przy waszyngtońskim ośrodku analitycznym Brookings – nazwał „wewnętrznym przeczuciem, że coś jest nie w porządku, moralnym kompasem; wiedzą, kiedy użyć przemocy, a kiedy nie”.

Autonomiczność robotów na polu walki wymagałaby zaprogramowania ich w przyszłości tak, aby mogły przestrzegać zasad konfliktów zbrojnych. Byłaby to komputerowa wersja „moralności”, pozwalająca robotom nie wykonywać rozkazów, które określilibyśmy jako zbrodnię wojenną. – Mamy moralny obowiązek upewnienia się, że tworzymy broń zdolną działać odpowiedzialnie i etycznie, potrafiącą zredukować zagrożenie dla osób niebędących stroną konfliktu – przekonywał prof. Ron Arkin z Georgia Institute of Technology, podczas prezentacji wstępnego systemu takiej „moralności”, powstającego w ramach prac ­finansowanych przez amerykańskie wojska lądowe.

W ramach prowadzonego projektu robot namierzył nieprzyjaciela w strefie działań wojennych, a więc w tej, w której otwarcie ognia jest dozwolone. Robot nie otworzył jednak ognia, bowiem nieprzyjaciel ukrył się na cmentarzu, a obiekt taki jest chroniony prawem międzynarodowym. W innym symulowanym teście robot namierzał wroga poruszającego się w konwoju obok szpitala. Maszyna starała się wtedy ocenić, czy można dokonać ataku bez uszkodzenia obiektów cywilnych. Jak przekonuje Arkin, udało mu się też stworzyć mechanizm „winy” – gdy robot popełnił błąd, w kolejnej podobnej sytuacji zaczynał działać ostrożniej. Naukowiec stwierdził optymistycznie: – Nie sądzę, by bezzałogowe systemy stały się kiedyś perfekcyjnie etyczne na polu walki, ale jestem przekonany, że mogą być bardziej etyczne niż ludzie.

Jednocześnie Arkin dodaje, że obecnie obawy krytyków są przesadzone, bo autonomiczność nie oznacza w pełni samodzielnego robota, pozostawionego bez kontroli człowieka: „Toster też jest autonomiczny. Można nakazać mu zrobić tost. Gdy wyjdziemy z kuchni, urządzenie nie pyta, czy ma przestać działać. O takiej autonomiczności mówimy”. Innymi słowy, roboty pozostałyby samodzielne w działaniu, ale nie podejmowałyby kluczowych decyzji, szczególnie co do otwarcia ognia. Na wojnie wszak żołnierze bardzo często muszą otrzymać rozkaz od dowódcy, by użyć broni. Z robotami byłoby podobnie – konieczna byłaby autoryzacja. Innym rozwiązaniem byłoby wykorzystanie robotów do zadań wartowniczych – mogłyby działać tylko w specjalnych strefach, gdzie nie ma przypadkowych osób (a przynajmniej nie powinno ich być).

Do jakiego więc stopnia roboty wojskowe powinny być autonomiczne? Christina Hess w artykule „Czy ­roboty zabójcy mogą być etycznie usprawiedliwione?”, podała przykład amerykańskich żołnierzy, którzy dostrzegli w Afganistanie grupę uzbrojonych talibów, ale mimo to nie zaatakowali. Powodem był fakt, iż bojownicy nieśli trumnę na pogrzeb. Jak przygotować robota na tak nieprzewidywalną sytuację? „Gdyby przecież zaprogramować roboty, by wstrzymać atak, gdy nieprzyjaciel niesie trumnę, to wówczas wróg zawsze by taką miał, aby uniknąć ataku” – zauważa Hess w argumentacji, która tylko na pozór wydaje się absurdalna. Argument, iż w przyszłości powstaną jeszcze bardziej zaawansowane maszyny, które będą się same uczyć, wcale nie uspokaja. Czy bezpieczniejszy jest bowiem „głupi” robot bojowy, który popełnia błędy, czy robot zaawansowany i stale się uczący, którego zachowania nie sposób do końca przewidzieć?

Granice nieomylności

Prócz naukowców problemem coraz częściej zajmują się też etycy, filozofowie i prawnicy. Na konferencji naukowej w 2008 r., o wymownym tytule „Etyka autonomicznych systemów wojskowych”, padło pytanie: Czy roboty mogą popełniać zbrodnie wojenne? Dla niektórych ekspertów takie pytanie jest absurdalne – robot to narzędzie, a za konsekwencje jego użycia odpowiedzialność ponosi sprawca. Innymi słowy, za morderstwo młotkiem winny jest nie młotek, ale człowiek, który zdecydował się użyć go w taki, a nie inny sposób.

Ale z autonomicznymi robotami sprawa może być mniej jednoznaczna – młotek nie jest samodzielny, a robot może być. Nie jest już tylko bezwolnym narzędziem, lecz staje się sprawcą kształtującym rzeczywistość. Jak podczas konferencji stwierdził jeden z ekspertów, „zbliżamy się do punktu, w którym prawo będzie musiało się zmienić. Trzeba będzie przyjąć do wiadomości, że odpowiedzialność za działania będzie od teraz spoczywać również na maszynach”. W dyskusję włączył się wtedy przedstawiciel brytyjskiego Ministerstwa Obrony, który dodał, że kwestie prawne można obejść. „Trzeba po prostu ograniczyć sytuacje, w których autonomiczny robot mógłby być narażony na złamanie prawa”. A jeżeli już dojdzie do pomyłki, to – zdaniem zwolenników – trudno, bowiem ludzie na wojnie przecież też popełniają błędy. Tak jak Amerykanie, którzy w 2008 r. pomyłkowo zbombardowali afgańskie wesele (37 ofiar), Niemcy, którzy pomylili talibów z cywilami (90 ofiar), czy Polacy, którzy ostrzelali wioskę (6 ofiar). Dlaczego więc od maszyn należałoby oczekiwać stuprocentowej nieomylności?

Niektórzy zwracają uwagę, że nawet jeśli robot popełni zbrodnię wojenną w wyniku swojej autonomicznej decyzji, to nie będzie można obarczyć za to winą człowieka, tak samo jak nie obarcza się odpowiedzialnością dowódcy żołnierza, który z własnej woli i bez rozkazu popełnił zbrodnię na polu walki. Taki pogląd, podobnie jak cała dyskusja na temat „wolności” robotów bojowych i zakresu ich swobody działania sprawiają, że przybywa zwolenników jednoznacznych rozwiązań. Mieszcząca się w Londynie pozarządowa organizacja „Landmine Action” (prowadząca kampanię na rzecz zakazania min przeciwpiechotnych i amunicji kasetowej) wezwała już społeczność międzynarodową do opracowania traktatu, który zdelegalizuje autonomiczne roboty bojowe. – Jesteśmy przekonani, że to człowiek, a nie maszyna, powinien decydować o użyciu broni – sądzi Richard Moyes z „Landmine Action”. – Nie chcemy, aby to roboty same uznawały, kto jest nieprzyjacielem, a kto nie – dodał. Human Rights Watch uważa, iż autonomiczne systemy broni to prosty krok na drodze do dehumanizacji wojny i tym samym wzywa do całkowitego zakazania bojowych robotów, które mogłyby działać samodzielnie, bez ingerencji człowieka. W 2013 r. Christof Heynes, specjalny sprawozdawca ONZ, wezwał do wstrzymania prac nad autonomicznymi systemami wojskowymi do czasu stworzenia odpowiednich regulacji prawnych.

Obawy te przemawiają do części naukowców. – Nie powinniśmy używać autonomicznych robotów bojowych, dopóki te naprawdę dobrze nie będą potrafiły odróżnić żołnierza od cywila – uważa Sharkey – a to nigdy nie będzie możliwe.

Więcej niż toster

Przedstawione powyżej dylematy nie są li tylko filozoficzną dyskusją; coraz bardziej dotyczą życia codziennego. Zwiększająca się autonomiczność robotów wojskowych to fakt. Ten proces trwa już od wielu lat. Wystarczy wspomnieć wykorzystywane od lat osiemdziesiątych przez amerykańską marynarkę wojenną systemy pokładowe „Aegis”, które mogą działać bez ingerencji człowieka. W 1988 r. system taki autonomicznie zidentyfikował cywilny samolot pasażerski Iran Air jako irański myśliwiec F-14. Chociaż załoga miała podejrzenie, że obiekt jest maszyną cywilną, oparto się na ocenie systemu „Aegis”. W katastrofie zginęło 290 osób.

Korea Południowa do monitorowania granicy ze swym nieprzewidywalnym sąsiadem z północy używa robotów SGR-A1 mogących otwierać ogień bez konieczności autoryzacji ze strony człowieka. Amerykanie na swych okrętach mają zbliżony system Phalanx. W wielu regionach na świecie, chociażby na Bliskim Wschodzie, latają setki bezzałogowców, które mogą działać niemal zupełnie autonomicznie, a udział człowieka jest bardzo ograniczony. Izraelski system przeciwrakietowy Iron Dome w pewnych sytuacjach sam odpala rakiety, nie czekając na decyzję człowieka.

O tym, że roboty odmienią przyszłe pole walki, jest przekonany Sharkey, a także Arkin, który stwierdził, że pomysły badaczy mogą znaleźć zastosowanie „może jeszcze nie w kolejnej wojnie, ale już w następnej – tak”. Gdyby wojskowi poważnie o tym nie myśleli, nie finansowaliby przecież badań Rona Arkina. Świadczy o tym też kierunek innych prowadzonych obecnie studiów. Pentagon już poprosił o rozpoczęcie prac nad systemem rozróżniania osób, które „współpracują” i „odmawiają ­współpracy” z robotem.

W 2006 r. opracowano raport o możliwości stworzenia autonomicznego systemu, który sam będzie mógł podjąć decyzję o zaatakowaniu nieprzyjaciela. Rok wcześniej amerykańskie dowództwo przygotowało prognozę, w której zapisano, że już za 20 lat „inteligentne” roboty staną się normą na polu walki. Trend jest więc wyraźny i to jedynie kwestia czasu, kiedy na froncie pojawi się w pełni samodzielny robot bojowy. Jedynie od nas – ludzi – zależy, czy będzie on wyposażony tylko w broń, czy również w namiastkę moralności.

Więcej w miesięczniku „Wiedza i Życie" nr 06/2015 »
Drukuj »
Ten artykuł nie został jeszcze skomentowany.
Aktualne numery
02/2020
01/2020
Kalendarium
Styczeń
29
W 1984 r. wystrzelono pierwszego satelitę z Kosmodromu Xichang w chińskiej prowincji Syczuan
Warto przeczytać
Jak można zmieścić całą wiedzę ludzkości w jednej książce? Z pozoru wydaje się to niemożliwe, jednak wszystko stanie się jasne, jeśli dodamy, że tą książką jest poradnik dla podróżujących w czasie, którzy bezpowrotnie utknęli w odległej przeszłości.

WSPÓŁPRACUJEMY
Logowanie

Nazwa użytkownika

Hasło

Autor: Robert Czulda | dodano: 2015-05-25
Kuzyni Terminatora

Fot. DARPA

Maszyny na polu walki odgrywają coraz ważniejszą rolę, a każda ich generacja jest bardziej autonomiczna niż poprzednia. Czy doczekamy się robotów, które samodzielnie będą decydować o otwarciu ognia do wroga?

O tym, że roboty stają się na współczesnym polu walki niemal niezastąpione, nie trzeba chyba już nikogo przekonywać. Większość z nich wykonuje zadania głównie defensywne, jak chociażby monitoring (automatyczne wieżyczki obserwacyjne), rozbrajanie (roboty saperskie) czy rozpoznanie (bezzałogowe statki latające). Jednak w wojskowych laboratoriach od pewnego czasu próbuje się stworzyć roboty w pełni autonomiczne. Maszyny, które będą podejmować decyzje o zachowaniu się na polu bitwy (m.in. o zaatakowaniu samodzielnie ­wybranego celu) bez udziału człowieka.

Teoretycznie nie ma w tym nic złego – zimna kalkulacja maszyny może przecież sprawić, że nie zginie nikt przypadkowy, co może się zdarzyć, gdy żołnierz jest zmęczony lub po prostu przestraszony i źle oceni ryzyko. Robot nie kieruje się uprzedzeniami ani nienawiścią, potrafi lepiej celować. Inni eksperci uważają jednak, że to scenariusz przerażający – każdy żołnierz wie bowiem, czym jest prawo konfliktów zbrojnych i co jest dozwolone, a co nie. Ma też wrodzoną empatię i wdrożoną w wyniku wychowania moralność. Wie, kiedy należy się zatrzymać. Maszyna, nawet najbardziej zaawansowana i nowoczesna, postępuje wyłącznie zgodnie z zapisanym w niej programem.

Zwolennicy daleko idącej robotyzacji pola walki prócz argumentu, iż roboty będą lepszymi, a więc bardziej precyzyjnymi wojownikami, przytaczają jeszcze jeden – na wojnie przestaną ginąć żołnierze (przynajmniej jednej strony – tej dysponującej odpowiednią technologią). Trudno jednak nie zauważyć, że postępująca robotyzacja działań zbrojnych może sprawić, iż w obliczu niewielkiego ryzyka kosztów społecznych politycy łatwiej mogą podejmować decyzję o rozpoczęciu wojny. Już teraz wysłanie wojsk chociażby do Iraku czy Syrii jest praktycznie niemożliwe z powodu presji społecznej, podczas gdy naloty z wykorzystaniem bezzałogowców na cele w Jemenie, Somalii, Afganistanie czy Pakistanie nie przyciągają większej społecznej uwagi. Z prostego powodu – w tego rodzaju operacjach nie giną „nasi chłopcy”, tylko maszyny. – Roboty wojenne, które się nie męczą, gotowe do działania na naciśnięcie guzika, tworzą zagrożenie permanentnego konfliktu zbrojnego – alarmował raport ONZ z maja 2013 r.

Sztuczna moralność

– Roboty nie złoszczą się i nie szukają zemsty, ale też nie okazują empatii żadnej ze stron – przestrzega prof. robotyki Noel Sharkey z University of Sheffield, krytyk autonomicznych dronów. Dodaje, że skonstruowanie w pełni samodzielnych robotów bojowych nie jest już obecnie szczególnie wymagającym wyzwaniem technicznym. Problemem jest jednak stworzenie nie tyle maszyn autonomicznych, ile „samodzielnie myślących”, czyli właściwie interpretujących otoczenie, a także zasady prawa wojennego. W tym dwie jego re­guły podstawowe – rozróżniania i proporcjonalności. Konwencje genewskie głoszą, że zakazane jest „zabijać lub ranić wroga, który złożył broń lub jest bezbronny i który się poddał”. Czy autonomiczne roboty będą potrafiły właściwie ocenić sytuację na dynamicznie zmieniającym się polu bitwy? Jak poradzą sobie np. z odróżnieniem cywili od uzbrojonych bojowników w „nieformalnym” odzieniu? Zdaniem Sharkeya roboty nie mają czegoś, co Peter Singer – dyrektor Centrum dla Bezpieczeństwa i Wywiadu XXI Wieku przy waszyngtońskim ośrodku analitycznym Brookings – nazwał „wewnętrznym przeczuciem, że coś jest nie w porządku, moralnym kompasem; wiedzą, kiedy użyć przemocy, a kiedy nie”.

Autonomiczność robotów na polu walki wymagałaby zaprogramowania ich w przyszłości tak, aby mogły przestrzegać zasad konfliktów zbrojnych. Byłaby to komputerowa wersja „moralności”, pozwalająca robotom nie wykonywać rozkazów, które określilibyśmy jako zbrodnię wojenną. – Mamy moralny obowiązek upewnienia się, że tworzymy broń zdolną działać odpowiedzialnie i etycznie, potrafiącą zredukować zagrożenie dla osób niebędących stroną konfliktu – przekonywał prof. Ron Arkin z Georgia Institute of Technology, podczas prezentacji wstępnego systemu takiej „moralności”, powstającego w ramach prac ­finansowanych przez amerykańskie wojska lądowe.

W ramach prowadzonego projektu robot namierzył nieprzyjaciela w strefie działań wojennych, a więc w tej, w której otwarcie ognia jest dozwolone. Robot nie otworzył jednak ognia, bowiem nieprzyjaciel ukrył się na cmentarzu, a obiekt taki jest chroniony prawem międzynarodowym. W innym symulowanym teście robot namierzał wroga poruszającego się w konwoju obok szpitala. Maszyna starała się wtedy ocenić, czy można dokonać ataku bez uszkodzenia obiektów cywilnych. Jak przekonuje Arkin, udało mu się też stworzyć mechanizm „winy” – gdy robot popełnił błąd, w kolejnej podobnej sytuacji zaczynał działać ostrożniej. Naukowiec stwierdził optymistycznie: – Nie sądzę, by bezzałogowe systemy stały się kiedyś perfekcyjnie etyczne na polu walki, ale jestem przekonany, że mogą być bardziej etyczne niż ludzie.

Jednocześnie Arkin dodaje, że obecnie obawy krytyków są przesadzone, bo autonomiczność nie oznacza w pełni samodzielnego robota, pozostawionego bez kontroli człowieka: „Toster też jest autonomiczny. Można nakazać mu zrobić tost. Gdy wyjdziemy z kuchni, urządzenie nie pyta, czy ma przestać działać. O takiej autonomiczności mówimy”. Innymi słowy, roboty pozostałyby samodzielne w działaniu, ale nie podejmowałyby kluczowych decyzji, szczególnie co do otwarcia ognia. Na wojnie wszak żołnierze bardzo często muszą otrzymać rozkaz od dowódcy, by użyć broni. Z robotami byłoby podobnie – konieczna byłaby autoryzacja. Innym rozwiązaniem byłoby wykorzystanie robotów do zadań wartowniczych – mogłyby działać tylko w specjalnych strefach, gdzie nie ma przypadkowych osób (a przynajmniej nie powinno ich być).

Do jakiego więc stopnia roboty wojskowe powinny być autonomiczne? Christina Hess w artykule „Czy ­roboty zabójcy mogą być etycznie usprawiedliwione?”, podała przykład amerykańskich żołnierzy, którzy dostrzegli w Afganistanie grupę uzbrojonych talibów, ale mimo to nie zaatakowali. Powodem był fakt, iż bojownicy nieśli trumnę na pogrzeb. Jak przygotować robota na tak nieprzewidywalną sytuację? „Gdyby przecież zaprogramować roboty, by wstrzymać atak, gdy nieprzyjaciel niesie trumnę, to wówczas wróg zawsze by taką miał, aby uniknąć ataku” – zauważa Hess w argumentacji, która tylko na pozór wydaje się absurdalna. Argument, iż w przyszłości powstaną jeszcze bardziej zaawansowane maszyny, które będą się same uczyć, wcale nie uspokaja. Czy bezpieczniejszy jest bowiem „głupi” robot bojowy, który popełnia błędy, czy robot zaawansowany i stale się uczący, którego zachowania nie sposób do końca przewidzieć?

Granice nieomylności

Prócz naukowców problemem coraz częściej zajmują się też etycy, filozofowie i prawnicy. Na konferencji naukowej w 2008 r., o wymownym tytule „Etyka autonomicznych systemów wojskowych”, padło pytanie: Czy roboty mogą popełniać zbrodnie wojenne? Dla niektórych ekspertów takie pytanie jest absurdalne – robot to narzędzie, a za konsekwencje jego użycia odpowiedzialność ponosi sprawca. Innymi słowy, za morderstwo młotkiem winny jest nie młotek, ale człowiek, który zdecydował się użyć go w taki, a nie inny sposób.

Ale z autonomicznymi robotami sprawa może być mniej jednoznaczna – młotek nie jest samodzielny, a robot może być. Nie jest już tylko bezwolnym narzędziem, lecz staje się sprawcą kształtującym rzeczywistość. Jak podczas konferencji stwierdził jeden z ekspertów, „zbliżamy się do punktu, w którym prawo będzie musiało się zmienić. Trzeba będzie przyjąć do wiadomości, że odpowiedzialność za działania będzie od teraz spoczywać również na maszynach”. W dyskusję włączył się wtedy przedstawiciel brytyjskiego Ministerstwa Obrony, który dodał, że kwestie prawne można obejść. „Trzeba po prostu ograniczyć sytuacje, w których autonomiczny robot mógłby być narażony na złamanie prawa”. A jeżeli już dojdzie do pomyłki, to – zdaniem zwolenników – trudno, bowiem ludzie na wojnie przecież też popełniają błędy. Tak jak Amerykanie, którzy w 2008 r. pomyłkowo zbombardowali afgańskie wesele (37 ofiar), Niemcy, którzy pomylili talibów z cywilami (90 ofiar), czy Polacy, którzy ostrzelali wioskę (6 ofiar). Dlaczego więc od maszyn należałoby oczekiwać stuprocentowej nieomylności?

Niektórzy zwracają uwagę, że nawet jeśli robot popełni zbrodnię wojenną w wyniku swojej autonomicznej decyzji, to nie będzie można obarczyć za to winą człowieka, tak samo jak nie obarcza się odpowiedzialnością dowódcy żołnierza, który z własnej woli i bez rozkazu popełnił zbrodnię na polu walki. Taki pogląd, podobnie jak cała dyskusja na temat „wolności” robotów bojowych i zakresu ich swobody działania sprawiają, że przybywa zwolenników jednoznacznych rozwiązań. Mieszcząca się w Londynie pozarządowa organizacja „Landmine Action” (prowadząca kampanię na rzecz zakazania min przeciwpiechotnych i amunicji kasetowej) wezwała już społeczność międzynarodową do opracowania traktatu, który zdelegalizuje autonomiczne roboty bojowe. – Jesteśmy przekonani, że to człowiek, a nie maszyna, powinien decydować o użyciu broni – sądzi Richard Moyes z „Landmine Action”. – Nie chcemy, aby to roboty same uznawały, kto jest nieprzyjacielem, a kto nie – dodał. Human Rights Watch uważa, iż autonomiczne systemy broni to prosty krok na drodze do dehumanizacji wojny i tym samym wzywa do całkowitego zakazania bojowych robotów, które mogłyby działać samodzielnie, bez ingerencji człowieka. W 2013 r. Christof Heynes, specjalny sprawozdawca ONZ, wezwał do wstrzymania prac nad autonomicznymi systemami wojskowymi do czasu stworzenia odpowiednich regulacji prawnych.

Obawy te przemawiają do części naukowców. – Nie powinniśmy używać autonomicznych robotów bojowych, dopóki te naprawdę dobrze nie będą potrafiły odróżnić żołnierza od cywila – uważa Sharkey – a to nigdy nie będzie możliwe.

Więcej niż toster

Przedstawione powyżej dylematy nie są li tylko filozoficzną dyskusją; coraz bardziej dotyczą życia codziennego. Zwiększająca się autonomiczność robotów wojskowych to fakt. Ten proces trwa już od wielu lat. Wystarczy wspomnieć wykorzystywane od lat osiemdziesiątych przez amerykańską marynarkę wojenną systemy pokładowe „Aegis”, które mogą działać bez ingerencji człowieka. W 1988 r. system taki autonomicznie zidentyfikował cywilny samolot pasażerski Iran Air jako irański myśliwiec F-14. Chociaż załoga miała podejrzenie, że obiekt jest maszyną cywilną, oparto się na ocenie systemu „Aegis”. W katastrofie zginęło 290 osób.

Korea Południowa do monitorowania granicy ze swym nieprzewidywalnym sąsiadem z północy używa robotów SGR-A1 mogących otwierać ogień bez konieczności autoryzacji ze strony człowieka. Amerykanie na swych okrętach mają zbliżony system Phalanx. W wielu regionach na świecie, chociażby na Bliskim Wschodzie, latają setki bezzałogowców, które mogą działać niemal zupełnie autonomicznie, a udział człowieka jest bardzo ograniczony. Izraelski system przeciwrakietowy Iron Dome w pewnych sytuacjach sam odpala rakiety, nie czekając na decyzję człowieka.

O tym, że roboty odmienią przyszłe pole walki, jest przekonany Sharkey, a także Arkin, który stwierdził, że pomysły badaczy mogą znaleźć zastosowanie „może jeszcze nie w kolejnej wojnie, ale już w następnej – tak”. Gdyby wojskowi poważnie o tym nie myśleli, nie finansowaliby przecież badań Rona Arkina. Świadczy o tym też kierunek innych prowadzonych obecnie studiów. Pentagon już poprosił o rozpoczęcie prac nad systemem rozróżniania osób, które „współpracują” i „odmawiają ­współpracy” z robotem.

W 2006 r. opracowano raport o możliwości stworzenia autonomicznego systemu, który sam będzie mógł podjąć decyzję o zaatakowaniu nieprzyjaciela. Rok wcześniej amerykańskie dowództwo przygotowało prognozę, w której zapisano, że już za 20 lat „inteligentne” roboty staną się normą na polu walki. Trend jest więc wyraźny i to jedynie kwestia czasu, kiedy na froncie pojawi się w pełni samodzielny robot bojowy. Jedynie od nas – ludzi – zależy, czy będzie on wyposażony tylko w broń, czy również w namiastkę moralności.