Mars Climate Orbiter – sonda NASA wystrzelona w grudniu 1998 r. Wizja artystyczna. Mars Climate Orbiter – sonda NASA wystrzelona w grudniu 1998 r. Wizja artystyczna. Olga Nikonova / Shutterstock
Technologia

Człowiek w erze sztucznej inteligencji

Model sondy Fobos.Wikimedia Commons/Wikipedia Model sondy Fobos.
Airbus A320, który uległ katastrofie.Wikimedia Commons/Wikipedia Airbus A320, który uległ katastrofie.
Czy takich będziemy mieć sędziów?Phonlamai Photo/Shutterstock Czy takich będziemy mieć sędziów?
Pociski nuklearne.vchal/Shutterstock Pociski nuklearne.
Wasilij Archipow.Wikimedia Commons/Wikipedia Wasilij Archipow.
materiały prasowe
Marzymy o podboju kosmosu, sprawnym transporcie, zautomatyzowanej produkcji, sprawiedliwych sądach czy likwidacji przestępczości. Niestety popełniamy błędy, wskutek czego dochodzi do straszliwych katastrof, albo ulegamy emocjom, co pozbawia nas obiektywizmu. Czy nie powinniśmy być zatem kontrolowani przez sztuczną inteligencję?

Sztuczna inteligencja może nam pomóc w badaniu kosmosu i wyeliminować bezsensowne pomyłki. 4 czerwca 1996 r. naukowcy wiwatowali, rozradowani, gdy rakieta Europejskiej Agencji Kosmicznej, Ariane 5, z rykiem silnika wzbiła się w niebo z instrumentami naukowymi do zbadania ziemskiej magnetosfery. 37 s później warta setki milionów dolarów inwestycja wybuchła. Przyczyną okazał się błąd w oprogramowaniu. Dwa lata później należący do NASA Mars Climate Orbiter przypadkowo wszedł w atmosferę Czerwonej Planety i rozpadł się, ponieważ dwie części oprogramowania używały różnych jednostek siły, powodując 445-procentowy błąd w module kontroli ciągu silnika. To był drugi superkosztowny błąd NASA: misja tej agencji na Wenus, Mariner 1, 22 lipca 1962 r. zakończyła się eksplozją tuż po starcie z przylądka Canaveral, gdy działanie oprogramowania sterującego lotem zostało zakłócone nieprawidłowo umieszczonym w kodzie znakiem interpunkcyjnym. Zresztą nie tylko Zachód opanował sztukę wystrzeliwania błędów w kosmos – 2 września 1988 r. nie powiodła się sowiecka misja Phobos 1. Ten najcięższy międzyplanetarny statek kosmiczny, jaki kiedykolwiek wystrzelono, miał umieścić lądownik na Fobosie, księżycu Marsa. Wszystko to zostało udaremnione, gdy brakujący w kodzie oprogramowania myślnik spowodował przesłanie na statek kosmiczny rozkazu „koniec misji”, kiedy ten znajdował się już w drodze na Marsa, co spowodowało wyłączenie jego wszystkich systemów.

Wypadki

Nie trzeba dodawać, że sztuczna inteligencja ma w sobie ogromny potencjał w ulepszaniu wytwórstwa dzięki panowaniu nad robotami, które zwiększają zarówno wydajność, jak i precyzję. Ale im więcej mamy wokół siebie robotów, tym ważniejsza staje się weryfikacja ich oprogramowania. Pierwszą osobą zabitą przez robota był Robert Williams, pracownik amerykańskiej fabryki Forda we Flat Rock. W 1979 r. zepsuł się robot, który miał pobierać części z magazynu, i pracownik sam wspiął się tam, aby je pobrać. Robot nagle zaczął pracować i uderzał go w głowę przez 30 min, zanim koledzy nieszczęśnika odkryli, co się stało. Chociaż liczba wypadków przemysłowych spada, to dodawanie inteligencji skądinąd głupim maszynom przyczyni się do dalszej poprawy bezpieczeństwa pracy dzięki uczeniu robotów, by były ostrożniejsze w kontakcie z ludźmi.

Potencjalnie więcej osób dałoby się uratować w transporcie. Same wypadki samochodowe pochłonęły w 2015 r. na świecie ponad 1,2 mln istnień ludzkich, a w wypadkach lotniczych, kolejowych i związanych z żeglugą zginęły kolejne tysiące osób. Ponieważ prawie wszystkie wypadki samochodowe są spowodowane błędem ludzkim, powszechnie uważa się, że autonomiczne samochody kontrolowane przez sztuczną inteligencję mogłyby wyeliminować co najmniej 90% z nich, i ten optymizm przyspiesza wprowadzanie do ruchu po drogach tego typu samochodów.

Na razie samochody autonomiczne mają lepsze wyniki w zakresie bezpieczeństwa niż kierowcy ludzie, a wypadki, do których doszło, podkreślają znaczenie i trudność walidacji. Pierwsza stłuczka spowodowana przez samochód autonomiczny Google nastąpiła 14 lutego 2016 r. z powodu błędnego założenia, że kierowca autobusu ustąpi, gdy samochód wysunie się przed niego. Pierwszy śmiertelny wypadek spowodowany przez autonomiczną teslę, która wjechała 7 maja 2016 r. w przyczepę ciężarówki jadącej po autostradzie, był skutkiem dwóch błędnych założeń: że jaskrawobiała strona przyczepy jest tylko częścią jasnego nieba i że kierowca (który rzekomo oglądał film o Harrym Potterze) zwraca uwagę na sytuację na drodze i będzie interweniował, jeśli coś pójdzie nie tak.

Kolejna tragiczna awaria systemu kontroli, której można było uniknąć dzięki lepszej komunikacji człowiek–maszyna, nastąpiła w nocy 1 czerwca 2009 r., kiedy to samolot Air France, lot 447, rozbił się na Oceanie Atlantyckim, wskutek czego zginęło 228 znajdujących się na pokładzie osób. Według oficjalnego raportu z wypadku „załoga w ogóle nie rozumiała, że doszło do przeciągnięcia, i w konsekwencji nie zastosowała manewru wyprowadzającego samolot z tej sytuacji” – polegającego na opuszczeniu nosa samolotu – aż do momentu, gdy było za późno. Eksperci ds. bezpieczeństwa lotów przypuszczali, że katastrofy można było uniknąć, gdyby w kokpicie znajdował się wskaźnik „kąta natarcia”, który pokazywałby pilotom, że nos jest skierowany za wysoko.

Kiedy 20 stycznia 1992 r. samolot Air Inter, lot 148, rozbił się w Wogezach pod Strasburgiem, zabijając 87 osób, przyczyną był nie brak komunikacji pomiędzy maszyną a człowiekiem, ale mylący interfejs użytkownika. Piloci wprowadzili „33” na klawiaturze, ponieważ chcieli obniżać lot po ścieżce nachylonej pod kątem 3,3 stopnia, ale autopilot zinterpretował to jako 3300 stóp na minutę, ponieważ pracował w innym trybie – a ekran wyświetlacza był zbyt mały, by ukazywać tryb, co mogłoby pilotom uświadomić ich błąd.

Te wypadki w transporcie uczą nas, że umożliwiając sztucznej inteligencji kontrolowanie coraz większej liczby układów fizycznych, musimy zwiększyć wysiłek badawczy w celu nie tylko zapewnienia prawidłowego funkcjonowania samych maszyn, ale także efektywnego ich współdziałania z ludźmi – operatorami. W miarę jak sztuczna inteligencja staje się coraz lepsza, będzie to wymagało nie tylko tworzenia lepszych interfejsów użytkownika służących do wymiany informacji, ale także do optymalnego przydzielania zadań w obrębie zespołu człowiek–komputer. Na przykład określania sytuacji, w których kontrola powinna zostać oddana wyłącznie człowiekowi podczas podejmowania najważniejszych decyzji zamiast rozpraszania uwagi ludzi operatorów zalewem nieistotnych informacji.

Medycyna

Sztuczna inteligencja dysponuje ogromnym potencjałem zastosowań do poprawy opieki zdrowotnej. Cyfryzacja dokumentacji medycznej umożliwiła już lekarzom i pacjentom podejmowanie szybszych i lepszych decyzji oraz natychmiastową pomoc ekspertów z całego świata w diagnozowaniu obrazów cyfrowych. W rzeczywistości najlepszymi ekspertami w przeprowadzaniu takiej diagnozy mogą być wkrótce systemy sztucznej inteligencji, biorąc pod uwagę szybki postęp w dziedzinie cyfrowego rozpoznawania obrazów i głębokiego uczenia. Na przykład holenderskie badanie przeprowadzone w 2015 r. wykazało, że komputerowa diagnoza raka gruczołu krokowego z wykorzystaniem obrazowania rezonansem magnetycznym (MRI) była równie dobra jak diagnoza radiologów, a badanie przeprowadzone na Stanford University w 2016 r. wykazało, że sztuczna inteligencja potrafi diagnozować raka płuc przy użyciu obrazów z mikroskopów nawet lepiej niż sami patolodzy.

Niestety, bolesne wnioski dotyczące solidnego oprogramowania również nie ominęły sektora opieki zdrowotnej. Na przykład zbudowana w Kanadzie maszyna do radioterapii Therac-25 została zaprojektowana do leczenia pacjentów z chorobą nowotworową w dwóch różnych trybach: albo wiązką elektronów o małej mocy, albo megawoltową wiązką promieni rentgenowskich o dużej mocy, która była ekranowana przez specjalną tarczę. Niesprawdzone oprogramowanie zawierające błędy od czasu do czasu powodowało, że technicy stosowali wiązkę megawoltową, będąc przekonani, że stosują bez osłony wiązkę o niskiej mocy, a to spowodowało śmierć kilku pacjentów. Jeszcze więcej pacjentów zmarło w latach 2000–2001 na skutek przedawkowania promieniowania w Narodowym Instytucie Onkologicznym w Panamie, gdzie urządzenia do radioterapii wykorzystujące promieniotwórczy kobalt 60 zostały zaprogramowane na stosowanie nadmiernego czasu naświetlania z powodu dezorientującego interfejsu użytkownika. Zgodnie z ostatnim raportem w Stanach Zjednoczonych w latach 2000–2013 w 144 przypadkach operacji chirurgicznych wykonanych przez roboty zakończyły się one zgonami i w 1391 przypadkach urazami, a przyczyny obejmowały nie tylko kwestie sprzętowe, takie jak łuk elektryczny oraz spalone lub uszkodzone narzędzia spadające na pacjenta, ale również problemy z oprogramowaniem, takie jak niekontrolowane ruchy i spontaniczne wyłączanie zasilania.

Dobrą wiadomością jest to, że pozostałe prawie 2 mln robotów chirurgicznych objętych sprawozdaniem przeszło weryfikację gładko i wygląda na to, że przeprowadzają operacje bezpieczniej. Według badań przeprowadzonych przez rząd USA zła opieka szpitalna przyczynia się do ponad 100 tys. zgonów rocznie w samych Stanach Zjednoczonych, a zatem moralny imperatyw rozwoju lepszej sztucznej inteligencji dla zastosowań medycznych jest prawdopodobnie jeszcze silniejszy niż w przypadku samochodów autonomicznych.

Roboty w roli sędziów

Jakie są pierwsze skojarzenia, które przychodzą Ci do głowy, gdy myślisz o systemie sądownictwa w Twoim kraju? Jeśli są to duże opóźnienia, wysokie koszty i sporadyczna niesprawiedliwość, to nie jesteś sam. To dlatego niektórzy naukowcy marzą o jego pełnej automatyzacji z robotami w roli sędziów: systemami sztucznej inteligencji, które niestrudzenie stosują te same wysokie standardy prawne w przypadku każdego wyroku i nie ulegają ludzkim błędom spowodowanym stronniczością, zmęczeniem lub brakiem najnowszej wiedzy prawnej.

Jak wiadomo, historia sądownictwa obfituje w wyroki skazujące podjęte z uwagi na kolor skóry, płeć, orientację seksualną, religię, narodowość i inne czynniki (kontrowersyjne badanie sędziów z Izraela wykonane w 2012 r. wykazało, że wydali oni znacznie ostrzejsze wyroki, gdy byli głodni: odmówili zwolnienia warunkowego, będąc zaraz po śniadaniu, w około 35% spraw, ale będąc tuż przed obiadem, odmówili go w ponad 85% spraw). Roboty sędziowie zasadniczo mogłyby sprawić, że po raz pierwszy w historii każdy z nas staje się naprawdę równy w świetle prawa: można by je tak zaprogramować, aby wszystkich traktowały jednakowo, stosując prawo w sposób całkowicie bezstronny. Z drugiej strony, roboty sędziowie mogą być łatwo kopiowane, ponieważ składają się jedynie z oprogramowania, co pozwala równolegle, a nie po kolei, rozpatrywać wszystkie toczące się sprawy, dzięki czemu każda z nich ma własnego sędziego w ciągu całego jej przebiegu. Wreszcie, w przeciwieństwie do sędziów ludzi, którzy nie są w stanie opanować całej wiedzy wymaganej do orzekania w każdym możliwym przypadku, od drażliwych sporów patentowych po wyjaśnianie zagadek morderstw, co wiąże się z opanowaniem najnowszej wiedzy z dziedziny kryminalistyki, w przyszłości roboty sędziowie będą mieć zasadniczo nieograniczone możliwości zapamiętywania i uczenia się.

Pewnego dnia tacy sędziowie mogą być zarówno sprawniejsi, jak i sprawiedliwsi, ich zaletą będzie bezstronność i kompetencja. Ich sprawność przyczyni się do większej sprawiedliwości poprzez przyśpieszenie postępowania sądowego i utrudni sprytnym prawnikom wypaczanie jego przebiegu. W ten sposób można by było znacznie obniżyć koszty sądowe. To wyrównałoby szanse osób fizycznych lub firm rozpoczynających działalność i mających problemy finansowe w sądowym starciu z miliarderami lub międzynarodowymi korporacjami wspomaganymi armiami prawników. Z drugiej strony, co się stanie, jeśli roboty sędziowie będą mieli błędy w oprogramowaniu lub ktoś się do niego włamie? Ta plaga dotknęła już automaty do głosowania, ale gdy w grę wchodzi możliwość spędzenia długich lat za kratami lub miliony w banku, motywacje do cyberataków stają się jeszcze większe.

Kontrola społeczeństwa

Gdyby rząd podsłuchiwał urządzenia elektroniczne każdego i rejestrował, gdzie kto się znajduje i co pisze, mówi i robi, to wiele przestępstw dałoby się łatwo rozwiązać, a dodatkowym można by zapobiec. Zwolennicy prywatności przeciwstawiają się temu, argumentując, że nie chcą orwellowskiego państwa inwigilacyjnego i że gdyby się tak stało, istnieje ryzyko, że kraj przekształci się w totalitarną dyktaturę. Jeśli technologia skanowania mózgu metodą fMRI (można dzięki temu stwierdzić, czy ktoś mówi prawdę) wspomagana sztuczną inteligencją stanie się powszechna na salach sądowych, żmudny obecnie proces ustalania faktów w danej sprawie zostałby znacznie uproszczony i przyspieszony, umożliwiając błyskawiczne procesy i sprawiedliwsze wyroki. Jednak zwolennicy prywatności mogą martwić się, czy takie systemy czasami nie popełniają błędów, a co ważniejsze, czy nasze umysły mogą podlegać rządowej inwigilacji. Rządy, które nie popierają wolności myśli, będą skore do uznania pewnych przekonań za sprzeczne z prawem i wykorzystywania takiej technologii do prześladowania ludzi. Czy wiedząc, że sztuczna inteligencja dałaby radę wygenerować fałszywe, ale w pełni realistyczne wideo o tym, jak popełniasz przestępstwo, zagłosujesz na system, w którym rząd przez cały czas śledzi miejsce pobytu każdego obywatela?

Wojny

Niektórzy twierdzą, że broń jądrowa powstrzymuje od wojny kraje, które ją posiadają, ze względu na to, że jest tak przerażająca. Może więc trzeba pozwolić wszystkim narodom na tworzenie jeszcze bardziej przerażającej broni opartej na sztucznej inteligencji w nadziei na zakończenie wszystkich wojen raz na zawsze? Jeżeli nie jesteś o tym przekonany, to może wykorzystać sztuczną inteligencję, aby wojny stały się bardziej humanitarne? Jeżeli będą polegać głównie na walkach maszyn, to może żołnierze ludzie lub ludność cywilna nie muszą być zabijani. Ponadto w przyszłości drony sterowane sztuczną inteligencją i inne autonomiczne systemy uzbrojenia mogą być tak zaprogramowane, aby być bardziej sprawiedliwe i racjonalne niż żołnierze ludzie.

Ale co zrobić, jeśli systemy automatyczne posiadają błędy, mylą się lub nie zachowują zgodnie z oczekiwaniami? Amerykański system Phalanx dla krążowników klasy Aegis automatycznie wykrywa, śledzi i atakuje obiekty, które są zagrożeniem, takie jak manewrujące pociski przeciwokrętowe i samoloty. USS „Vincennes” był krążownikiem rakietowym i bywał nazywany robokrążownikiem ze względu na zainstalowany na nim system Aegis. W dniu 3 lipca 1988 r., w czasie trwania wojny irańsko-irackiej, gdy był zaangażowany w potyczki z irańskimi kanonierkami, jego system radarowy nadał ostrzeżenie przed nadlatującym samolotem. Kapitan William Rogers III wywnioskował, że został zaatakowany przez nurkujący irański myśliwiec F-14, i wydał zgodę systemowi Aegis na otwarcie ognia. Nie zdawał sobie wówczas sprawy z tego, że zestrzelił irański samolot pasażerski, Iran Air, lot nr 655, zabijając 290 osób będących na jego pokładzie i wywołując międzynarodowe oburzenie. Późniejsze dochodzenie wykazało, że interfejs użytkownika systemu Aegis był mylący, nie wskazywał automatycznie, które punkty na ekranie radaru opisywały samoloty cywilne (lot 655 odbywał się w obrębie korytarza powietrznego i samolot posiadał transponder cywilnego statku powietrznego) albo które kropki opisywały samolot zniżający się (jak w przypadku ataku), a które samolot wznoszący się (tak jak lot 655 po starcie z Teheranu). Zamiast tego, kiedy zautomatyzowany system został zapytany o informacje na temat tajemniczego samolotu, zaraportował zniżanie, ponieważ taki był status innego samolotu, na który został mylnie przeniesiony numer używany przez marynarkę wojenną do śledzenia samolotów: ten, który zniżał się, był samolotem patrolu walki powietrznej USA, lecącym daleko w Zatoce Omańskiej.

W tym przykładzie w procesie podejmowania ostatecznej decyzji uczestniczył człowiek, który działając pod presją chwili, zbytnio uwierzył w to, co podpowiedział mu system. Jak dotąd, według zapewnień przedstawicieli ministerstw obrony na całym świecie, wszystkie systemy uzbrojenia podlegają kontroli człowieka, z wyjątkiem min pułapek, takich jak miny lądowe. Trwają jednak prace nad prawdziwie autonomiczną bronią, która sama wybiera cele i je atakuje. Stanowi to wielką pokusę z punktu widzenia militarnego. Usunąć człowieka z procesu decyzyjnego, aby przyspieszyć jego działanie. Który dron zwycięży Państwa zdaniem w pojedynku myśliwskim: czy ten w pełni autonomiczny, który jest w stanie natychmiast reagować, czy ten sterowany zdalnie przez człowieka znajdującego się na drugiej półkuli Ziemi i z tego względu znacznie wolniej reagującego na zaistniałą sytuację?

Były jednak takie zdarzenia, podczas których mieliśmy ogromne szczęście, że w procesie decyzyjnym uczestniczył człowiek. 27 października 1962 r., podczas kryzysu kubańskiego, jedenaście niszczycieli amerykańskiej marynarki wojennej i lotniskowiec USS „Randolph” otoczyło sowiecki okręt podwodny B-59 na wodach międzynarodowych w pobliżu Kuby, poza amerykańskim obszarem „kwarantanny”. Nie zdawano sobie sprawy, że temperatura na pokładzie wzrosła powyżej 45°C, ponieważ baterie łodzi podwodnej były wyczerpane, a klimatyzacja nie działała. Wielu członków załogi zasłabło ze względu na zatrucia dwutlenkiem węgla. Załoga przez wiele dni nie miała kontaktu z Moskwą i nie wiedziała, czy III wojna światowa już się rozpoczęła. Potem Amerykanie zaczęli zrzucać niewielkie ładunki głębinowe, które mieli na pokładzie, i bez wiedzy sowieckiej załogi poinformowali Moskwę, że mają one na celu zmuszenie łodzi do wynurzenia i wyjścia jej ze strefy. „Myśleliśmy, że to już koniec”, powiedział później członek załogi V.P. Orłow. „Czułem się jak zamknięty w metalowej beczce, w którą ktoś nieustannie uderza młotem”. Amerykanie jednak nie wiedzieli, że załoga B-59 posiadała torpedę jądrową, na której użycie miała pozwolenie bez kontaktowania się z Moskwą. Kapitan Sawicki zdecydował się na użycie torpedy z głowicą nuklearną. „Walentyn Grigoriewicz – zawołał oficer torpedowy. – Umrzemy, ale zatopimy ich wszystkich. Nie okryjemy hańbą naszej marynarki!” Na szczęście decyzja o wystrzeleniu torpedy musiała zostać zatwierdzona przez trzech oficerów będących na pokładzie, a jeden z nich, Wasilij Archipow, powiedział „nie”. To bardzo przygnębiające, że bardzo niewiele osób słyszało o Archipowie, chociaż jego decyzja być może zapobiegła wybuchowi III wojny światowej i była najcenniejszym czynem we współczesnej historii ludzkości. Zatrważająca jest również myśl, co mogłoby się wydarzyć, gdyby B-59 był autonomicznym okrętem podwodnym kontrolowanym przez sztuczną inteligencję bez ludzkiego udziału w procesie podejmowania decyzji.

Dwie dekady później, 9 września 1983 r., napięcie między supermocarstwami znów było duże: Związek Sowiecki został wtedy nazwany imperium zła przez prezydenta USA Ronalda Reagana, a zaledwie tydzień wcześniej samolot pasażerski Koreańskich Linii Lotniczych, który wszedł w jego przestrzeń powietrzną, został zestrzelony i na jego pokładzie zginęło 269 osób – w tym amerykański kongresman. Tego dnia zautomatyzowany sowiecki system wczesnego ostrzegania poinformował, że Stany Zjednoczone wystrzeliły na Związek Sowiecki pięć lądowych rakiet z głowicami jądrowymi, pozostawiając oficerowi Stanisławowi Pietrowowi zaledwie kilka minut na podjęcie decyzji, czy jest to fałszywy alarm. Potwierdzono, że satelita działa prawidłowo, więc działając zgodnie z protokołem, Pietrowowi nie pozostawałoby nic innego jak zgłosić nadchodzący atak nuklearny. Zamiast tego zaufał swojemu instynktowi, zdając sobie sprawę, że to mało prawdopodobne, aby Stany Zjednoczone zaatakowały tylko pięcioma pociskami, i poinformował dowódców, że jest to fałszywy alarm. Później okazało się, że satelita pomylił odbicia Słońca od szczytów chmur z płomieniami silników rakietowych. Co by się stało, gdyby Pietrow został zastąpiony przez system sztucznej inteligencji, który nienagannie przestrzegałby odpowiedniego protokołu?

Sztuczna inteligencja ma większy potencjał do przekształcenia naszej przyszłości niż jakakolwiek inna technologia. Czy pozwoli na rozwój naszej cywilizacji jak nigdy dotąd, czy doprowadzi do naszej zguby?

***

Więcej na ten temat w książce Maxa Tegmarka „Życie 3.0. Człowiek w erze sztucznej inteligencji”, Prószyński i S-ka.

Wiedza i Życie 4/2019 (1012) z dnia 01.04.2019; Technika; s. 16

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną