Lemonodor пишет об этике боевых роботов. В частности, речь идет о том, что в боевых условиях роботы могут быть более этичными чем люди по ряду причин. Сомнительными являются пункты 1 и 3. Согласно пункту 1 роботы будут более этичными, потому что не будут иметь инстинкта самосохранения. Я думаю такой инстинкт должен быть заложен в систему хотябы на минимальном уровне. А коли так, то гипотетически могут возникнуть не очень этичные ситуации, являющиеся результато самосохранения робота.
В третьем пункте утверждается, что роботы будут лишены человеческой психологической проблемы "исполнения сценария", т.е. не будут трактовать противоречивые данные в пользу существующего предубеждения. Это сомнительно, т.к. если система обладает хоть какими-то зачатками AI, то, следовательно будет пытаться предсказывать, основываясь существующем опыте. А существующий опыт это и есть то самое предубеждение.
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий