technika
dodano: 2019-03-20
Człowiek w erze sztucznej inteligencji

Fot. Olga Nikonova/Shutterstock.com

Marzymy o podboju kosmosu, sprawnym transporcie, zautomatyzowanej produkcji, sprawiedliwych sądach czy likwidacji przestępczości. Niestety popełniamy błędy, wskutek czego dochodzi do straszliwych katastrof, albo ulegamy emocjom, co pozbawia nas obiektywizmu. Czy nie powinniśmy być zatem kontrolowani przez sztuczną inteligencję?

Sztuczna inteligencja może nam pomóc w badaniu kosmosu i wyeliminować bezsensowne pomyłki. 4 czerwca 1996 r. naukowcy wiwatowali, rozradowani, gdy rakieta Europejskiej Agencji Kosmicznej, Ariane 5, z rykiem silnika wzbiła się w niebo z instrumentami naukowymi do zbadania ziemskiej magnetosfery. 37 s później warta setki milionów dolarów inwestycja wybuchła. Przyczyną okazał się błąd w oprogramowaniu. Dwa lata później należący do NASA Mars Climate Orbiter przypadkowo wszedł w atmosferę Czerwonej Planety i rozpadł się, ponieważ dwie części oprogramowania używały różnych jednostek siły, powodując 445-procentowy błąd w module kontroli ciągu silnika. To był drugi superkosztowny błąd NASA: misja tej agencji na Wenus, Mariner 1, 22 lipca 1962 r. zakończyła się eksplozją tuż po starcie z przylądka Canaveral, gdy działanie oprogramowania sterującego lotem zostało zakłócone nieprawidłowo umieszczonym w kodzie znakiem interpunkcyjnym. Zresztą nie tylko Zachód opanował sztukę wystrzeliwania błędów w kosmos – 2 września 1988 r. nie powiodła się sowiecka misja Phobos 1. Ten najcięższy międzyplanetarny statek kosmiczny, jaki kiedykolwiek wystrzelono, miał umieścić lądownik na Fobosie, księżycu Marsa. Wszystko to zostało udaremnione, gdy brakujący w kodzie oprogramowania myślnik spowodował przesłanie na statek kosmiczny rozkazu „koniec misji”, kiedy ten znajdował się już w drodze na Marsa, co spowodowało wyłączenie jego wszystkich systemów.

Wypadki

Nie trzeba dodawać, że sztuczna inteligencja ma w sobie ogromny potencjał w ulepszaniu wytwórstwa dzięki panowaniu nad robotami, które zwiększają zarówno wydajność, jak i precyzję. Ale im więcej mamy wokół siebie robotów, tym ważniejsza staje się weryfikacja ich oprogramowania. Pierwszą osobą zabitą przez robota był Robert Williams, pracownik amerykańskiej fabryki Forda we Flat Rock. W 1979 r. zepsuł się robot, który miał pobierać części z magazynu, i pracownik sam wspiął się tam, aby je pobrać. Robot nagle zaczął pracować i uderzał go w głowę przez 30 min, zanim koledzy nieszczęśnika odkryli, co się stało. Chociaż liczba wypadków przemysłowych spada, to dodawanie inteligencji skądinąd głupim maszynom przyczyni się do dalszej poprawy bezpieczeństwa pracy dzięki uczeniu robotów, by były ostrożniejsze w kontakcie z ludźmi.

Potencjalnie więcej osób dałoby się uratować w transporcie. Same wypadki samochodowe pochłonęły w 2015 r. na świecie ponad 1,2 mln istnień ludzkich, a w wypadkach lotniczych, kolejowych i związanych z żeglugą zginęły kolejne tysiące osób. Ponieważ prawie wszystkie wypadki samochodowe są spowodowane błędem ludzkim, powszechnie uważa się, że autonomiczne samochody kontrolowane przez sztuczną inteligencję mogłyby wyeliminować co najmniej 90% z nich, i ten optymizm przyspiesza wprowadzanie do ruchu po drogach tego typu samochodów.

Na razie samochody autonomiczne mają lepsze wyniki w zakresie bezpieczeństwa niż kierowcy ludzie, a wypadki, do których doszło, podkreślają znaczenie i trudność walidacji. Pierwsza stłuczka spowodowana przez samochód autonomiczny Google nastąpiła 14 lutego 2016 r. z powodu błędnego założenia, że kierowca autobusu ustąpi, gdy samochód wysunie się przed niego. Pierwszy śmiertelny wypadek spowodowany przez autonomiczną teslę, która wjechała 7 maja 2016 r. w przyczepę ciężarówki jadącej po autostradzie, był skutkiem dwóch błędnych założeń: że jaskrawobiała strona przyczepy jest tylko częścią jasnego nieba i że kierowca (który rzekomo oglądał film o Harrym Potterze) zwraca uwagę na sytuację na drodze i będzie interweniował, jeśli coś pójdzie nie tak.

Kolejna tragiczna awaria systemu kontroli, której można było uniknąć dzięki lepszej komunikacji człowiek–maszyna, nastąpiła w nocy 1 czerwca 2009 r., kiedy to samolot Air France, lot 447, rozbił się na Oceanie Atlantyckim, wskutek czego zginęło 228 znajdujących się na pokładzie osób. Według oficjalnego raportu z wypadku „załoga w ogóle nie rozumiała, że doszło do przeciągnięcia, i w konsekwencji nie zastosowała manewru wyprowadzającego samolot z tej sytuacji” – polegającego na opuszczeniu nosa samolotu – aż do momentu, gdy było za późno. Eksperci ds. bezpieczeństwa lotów przypuszczali, że katastrofy można było uniknąć, gdyby w kokpicie znajdował się wskaźnik „kąta natarcia”, który pokazywałby pilotom, że nos jest skierowany za wysoko.

Kiedy 20 stycznia 1992 r. samolot Air Inter, lot 148, rozbił się w Wogezach pod Strasburgiem, zabijając 87  osób, przyczyną był nie brak komunikacji pomiędzy maszyną a człowiekiem, ale mylący interfejs użytkownika. Piloci wprowadzili „33” na klawiaturze, ponieważ chcieli obniżać lot po ścieżce nachylonej pod kątem 3,3 stopnia, ale autopilot zinterpretował to jako 3300 stóp na minutę, ponieważ pracował w innym trybie – a ekran wyświetlacza był zbyt mały, by ukazywać tryb, co mogłoby pilotom uświadomić ich błąd.

Te wypadki w transporcie uczą nas, że umożliwiając sztucznej inteligencji kontrolowanie coraz większej liczby układów fizycznych, musimy zwiększyć wysiłek badawczy w celu nie tylko zapewnienia prawidłowego funkcjonowania samych maszyn, ale także efektywnego ich współdziałania z ludźmi – operatorami.

Więcej w książce Maxa Tegmarka „Życie 3.0. Człowiek w erze sztucznej inteligencji”, Prószyński i S-ka.

Więcej w miesięczniku „Wiedza i Życie" nr 04/2019 »
Drukuj »
Ten artykuł nie został jeszcze skomentowany.
Aktualne numery
09/2019
08/2019
Kalendarium
Wrzesień
15
W 1857 r. niemiecki astronom Karl Theodor Robert Luther odkrył planetoidę (47) Aglaja.
Warto przeczytać
Dlaczego pobudka budzikiem szkodzi? Jak tańczą cząsteczki w porannej kawie? Czy smażąc jajecznicę na śniadanie, wzbogacamy ją o fluor? Tyle pytań, a jeszcze nawet nie wyszliśmy z domu!

WSPÓŁPRACUJEMY
Logowanie

Nazwa użytkownika

Hasło

dodano: 2019-03-20
Człowiek w erze sztucznej inteligencji

Fot. Olga Nikonova/Shutterstock.com

Marzymy o podboju kosmosu, sprawnym transporcie, zautomatyzowanej produkcji, sprawiedliwych sądach czy likwidacji przestępczości. Niestety popełniamy błędy, wskutek czego dochodzi do straszliwych katastrof, albo ulegamy emocjom, co pozbawia nas obiektywizmu. Czy nie powinniśmy być zatem kontrolowani przez sztuczną inteligencję?

Sztuczna inteligencja może nam pomóc w badaniu kosmosu i wyeliminować bezsensowne pomyłki. 4 czerwca 1996 r. naukowcy wiwatowali, rozradowani, gdy rakieta Europejskiej Agencji Kosmicznej, Ariane 5, z rykiem silnika wzbiła się w niebo z instrumentami naukowymi do zbadania ziemskiej magnetosfery. 37 s później warta setki milionów dolarów inwestycja wybuchła. Przyczyną okazał się błąd w oprogramowaniu. Dwa lata później należący do NASA Mars Climate Orbiter przypadkowo wszedł w atmosferę Czerwonej Planety i rozpadł się, ponieważ dwie części oprogramowania używały różnych jednostek siły, powodując 445-procentowy błąd w module kontroli ciągu silnika. To był drugi superkosztowny błąd NASA: misja tej agencji na Wenus, Mariner 1, 22 lipca 1962 r. zakończyła się eksplozją tuż po starcie z przylądka Canaveral, gdy działanie oprogramowania sterującego lotem zostało zakłócone nieprawidłowo umieszczonym w kodzie znakiem interpunkcyjnym. Zresztą nie tylko Zachód opanował sztukę wystrzeliwania błędów w kosmos – 2 września 1988 r. nie powiodła się sowiecka misja Phobos 1. Ten najcięższy międzyplanetarny statek kosmiczny, jaki kiedykolwiek wystrzelono, miał umieścić lądownik na Fobosie, księżycu Marsa. Wszystko to zostało udaremnione, gdy brakujący w kodzie oprogramowania myślnik spowodował przesłanie na statek kosmiczny rozkazu „koniec misji”, kiedy ten znajdował się już w drodze na Marsa, co spowodowało wyłączenie jego wszystkich systemów.

Wypadki

Nie trzeba dodawać, że sztuczna inteligencja ma w sobie ogromny potencjał w ulepszaniu wytwórstwa dzięki panowaniu nad robotami, które zwiększają zarówno wydajność, jak i precyzję. Ale im więcej mamy wokół siebie robotów, tym ważniejsza staje się weryfikacja ich oprogramowania. Pierwszą osobą zabitą przez robota był Robert Williams, pracownik amerykańskiej fabryki Forda we Flat Rock. W 1979 r. zepsuł się robot, który miał pobierać części z magazynu, i pracownik sam wspiął się tam, aby je pobrać. Robot nagle zaczął pracować i uderzał go w głowę przez 30 min, zanim koledzy nieszczęśnika odkryli, co się stało. Chociaż liczba wypadków przemysłowych spada, to dodawanie inteligencji skądinąd głupim maszynom przyczyni się do dalszej poprawy bezpieczeństwa pracy dzięki uczeniu robotów, by były ostrożniejsze w kontakcie z ludźmi.

Potencjalnie więcej osób dałoby się uratować w transporcie. Same wypadki samochodowe pochłonęły w 2015 r. na świecie ponad 1,2 mln istnień ludzkich, a w wypadkach lotniczych, kolejowych i związanych z żeglugą zginęły kolejne tysiące osób. Ponieważ prawie wszystkie wypadki samochodowe są spowodowane błędem ludzkim, powszechnie uważa się, że autonomiczne samochody kontrolowane przez sztuczną inteligencję mogłyby wyeliminować co najmniej 90% z nich, i ten optymizm przyspiesza wprowadzanie do ruchu po drogach tego typu samochodów.

Na razie samochody autonomiczne mają lepsze wyniki w zakresie bezpieczeństwa niż kierowcy ludzie, a wypadki, do których doszło, podkreślają znaczenie i trudność walidacji. Pierwsza stłuczka spowodowana przez samochód autonomiczny Google nastąpiła 14 lutego 2016 r. z powodu błędnego założenia, że kierowca autobusu ustąpi, gdy samochód wysunie się przed niego. Pierwszy śmiertelny wypadek spowodowany przez autonomiczną teslę, która wjechała 7 maja 2016 r. w przyczepę ciężarówki jadącej po autostradzie, był skutkiem dwóch błędnych założeń: że jaskrawobiała strona przyczepy jest tylko częścią jasnego nieba i że kierowca (który rzekomo oglądał film o Harrym Potterze) zwraca uwagę na sytuację na drodze i będzie interweniował, jeśli coś pójdzie nie tak.

Kolejna tragiczna awaria systemu kontroli, której można było uniknąć dzięki lepszej komunikacji człowiek–maszyna, nastąpiła w nocy 1 czerwca 2009 r., kiedy to samolot Air France, lot 447, rozbił się na Oceanie Atlantyckim, wskutek czego zginęło 228 znajdujących się na pokładzie osób. Według oficjalnego raportu z wypadku „załoga w ogóle nie rozumiała, że doszło do przeciągnięcia, i w konsekwencji nie zastosowała manewru wyprowadzającego samolot z tej sytuacji” – polegającego na opuszczeniu nosa samolotu – aż do momentu, gdy było za późno. Eksperci ds. bezpieczeństwa lotów przypuszczali, że katastrofy można było uniknąć, gdyby w kokpicie znajdował się wskaźnik „kąta natarcia”, który pokazywałby pilotom, że nos jest skierowany za wysoko.

Kiedy 20 stycznia 1992 r. samolot Air Inter, lot 148, rozbił się w Wogezach pod Strasburgiem, zabijając 87  osób, przyczyną był nie brak komunikacji pomiędzy maszyną a człowiekiem, ale mylący interfejs użytkownika. Piloci wprowadzili „33” na klawiaturze, ponieważ chcieli obniżać lot po ścieżce nachylonej pod kątem 3,3 stopnia, ale autopilot zinterpretował to jako 3300 stóp na minutę, ponieważ pracował w innym trybie – a ekran wyświetlacza był zbyt mały, by ukazywać tryb, co mogłoby pilotom uświadomić ich błąd.

Te wypadki w transporcie uczą nas, że umożliwiając sztucznej inteligencji kontrolowanie coraz większej liczby układów fizycznych, musimy zwiększyć wysiłek badawczy w celu nie tylko zapewnienia prawidłowego funkcjonowania samych maszyn, ale także efektywnego ich współdziałania z ludźmi – operatorami.

Więcej w książce Maxa Tegmarka „Życie 3.0. Człowiek w erze sztucznej inteligencji”, Prószyński i S-ka.