Nauka

Nie patrz na mnie ludzkim wzrokiem

Shutterstock
Jak człowiek spostrzega etyczność i moralność robota? Czy uważa, że przy podejmowaniu decyzji ma znaczenie to, czy jest on humanoidalny? Na te pytania odpowiedział zespół Michaela Laakasuo z University of Helsinki.
Moralities of Intelligent Machines to projekt dotyczący stosunku ludzi do moralnych wyborów dokonywanych przez sztuczną inteligencję. W najnowszym badaniu uczestnicy czytali krótkie teksty, w których robot, nieco humanoidalna maszyna iRobot, humanoidalny iClooney lub człowiek mają do rozwikłania tzw. dylemat wagonika. Opisuje go sytuacja, kiedy niekontrolowany przez nikogo wagon jedzie po torach i w zależności od tego, w jaką stronę zostanie skierowany na rozjeździe, zabije pięć osób lub jedną. Obserwator nie może zapobiec tragedii a jedynie przestawić zwrotnicę. Czy zdecydować, ile będzie ofiar.
Większość badanych uznało, że wybór iRobota i iClooneya jest mniej etyczny niż ta sama decyzja podjęta przez człowieka i robota nie przypominającego postaci ludzkiej. Dlaczego? Michael Laakasuo uważa, na ich zdanie wpływa tzw. dolina niesamowitości.
– Tego terminu używa się na określenie zjawiska, polegającego na tym, że człowieczeństwo zestawione ze sztuczną inteligencją jest postrzegane jako upiorne lub przerażające – tłumaczy badacz. ­– Stosunek do robotów humanoidalnych jest bardziej negatywny, co może wynikać np. z trudności w ich identyfikacji. Trudniej bowiem zdecydować, czy jest to bardziej zwierzę czy narzędzie.
Dlaczego wiedza na temat postrzegania roboty przez ludzi jest istotna? Może ona wpływać na kierunek rozwoju AI i robotyki, a także wpływać na decyzje dotyczące regulacji związanych ze sztuczną inteligencją.
Czy skoro ludzie podchodzą z nieufnością do maszyn humanoidalnych, trzeba przestać je tak projektować, czy raczej starać się zmieniać stosunek do nich? Czy w kontekście maszyn w ogóle można używać kategorii moralności? Jakie roboty chcielibyśmy mieć wśród nas: takie, które ratują pięć osób, poświęcając jedną, czy takie, które uważają, że właściwe będzie zabicie pięciorga? Wiele pytań domaga się odpowiedzi.
Ale może to nie roboty są tu największym problemem? „Sztuczna inteligencja nie powinna mieć takiego celu, by robić coś nieetycznie – mówił w poradniku psychologicznym POLITYKI „Ja my oni” filozof Leon Ciechanowski. – Chyba, że zostanie tak zaprogramowana. Rzeczywiście, bardziej trzeba się bać programistów niż robotów”.
____________________________________________
źródło: University of Helsinki
Reklama

Czytaj także

Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną