Naukowcy debatują o prawach i obowiązkach robotów

Naukowcy wyrażają zaniepokojenie przyszłością autonomicznych robotów, które już niedługo będą mogły podejmować własne decyzje. W Londynie zorganizowano konferencję, gdzie zostaną poruszone kwestie praw, obowiązków i etyki maszyn.
Roboty stają się coraz bardziej niezależne od człowieka. Już teraz automatyczne sprzątaczki mogą same zdecydować, kiedy pokój jest czysty i należy przejść do odkurzania następnego.

Znacznie poważniejszy problem dotyczy robota, który ma strzec granicy między Koreą Południową i Północną. Jest on wyposażony w karabiny maszynowe i naukowcy zastanawiają się, kogo obarczyć odpowiedzialnością za ewentualną śmierć człowieka z rąk maszyny.

Tymi problemami zajmą się specjaliści zebrani w londyńskim Muzeum Nauki. Podkreślają oni, że obecnie potrzebna jest poważna debata, bo wiele dotychczasowych badań w tej dziedzinie jest nierzetelnych. Kilka zespołów ekspertów w Europie i w Azji już pracuje nad tzw. Kartą Praw Robotów.

Zdaniem specjalistów rozwój autonomii maszyn jest nieunikniony. Problemy mogą pojawiać się zarówno podczas opieki robotów nad ludźmi starszymi i niepełnosprawnymi. W Japonii już teraz roboty zaczynają wykonywać część obowiązków pielęgniarek.

Skomplikowane etycznie może być też zastosowanie robotów do celów militarnych i policyjnych - na przykład w starciach z demonstrantami, gdzie samodzielne roboty będą wyposażone w armatki wodne.

Tymczasem rząd Korei Południowej podkreśla, że zasady współżycia ludzi z robotami powinny powstać jak najszybciej - tamtejsze ministerstwo informacji przewiduje, że każda rodzina może mieć swojego robota już w 2015 roku.

Zdaniem ekspertów rządu w Seulu, Karta Praw Robotów może opierać się na tzw. trzech prawach robotyki, zaproponowanych w 1942 roku przez amerykańskiego pisarza Isaaca Asimova w opowiadaniu "Zabawa w Berka":

  • Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy;

  • Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem;

  • Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.