|
14.05.2014 Ученые пытаются обучить роботов моралиГруппа исследователей из Университета Тафтса, Брауновского университета и Политехнического института Ренсселера, при сотрудничестве с Военно-морскими силами США вот уже несколько лет работает над решением вопроса о том, как создать роботов, наделенных своим собственным чувством морали. Если затея ученых окажется успешной, то они смогут создать искусственный интеллект, способный самостоятельно оценивать сложность той или иной ситуации и самостоятельно делать сложный этический выбор, согласно предварительно интегрированным в них инструкциям. Семьдесят два года назад выдающийся писатель-фантаст Айзек Азимов сформулировал «три закона робототехники», которые могли бы послужить в качестве своего рода кодекса морального поведения для высокоразвитого искусственного интеллекта. К сожалению (или, наоборот, к счастью), современный ИИ до сих пор очень хрупок и слаб. Он не осознает мир вокруг себя. Люди еще не научились строить роботов, которые могли бы не то что следовать этим трем законам, а хотя бы просто их понимать. Группа ученых под руководством профессора Маттиаса Шутца из Университета Тафтса пытается решить очень важную проблему, которая пока не позволяет нам построить таких роботов: разбить человеческое представление на базовые компоненты и постараться интегрировать их на понятном роботу языке в разрабатываемый фреймворк. Позже ученые постараются смоделировать этот фреймворк в виде алгоритма и интегрировать его в искусственный интеллект. Информационная инфраструктура позволит роботу пересмотреть свои инструкции перед лицом новых доказательств и обосновывать свое поведение в отношении людей, которые им управляют. «Представление морали можно грубо воспринимать как способность к обучению и осознанию причины и следствия, а также возможность обсуждения законов и социальных конвенций, принятых в том или ином обществе», — говорит Шутц. «Вопрос заключается в следующем: могут ли машины или любые другие искусственные системы в этих рамках эмулировать и обладать этими способностями?» — продолжает ученый. Например, роботу-медику может быть поручена задача по срочной доставке жизненно важных лекарств в определенное место. На пути он встречает человека в критическом состоянии. Моральный кодекс робота поможет ему самостоятельно оценить ситуацию и принять решение: остановиться и помочь человеку или продолжить выполнение своей первостепенной задачи. Если рассказы Азимова нас чему-то и научили, так это тому, что набор строгих и запрограммированных правил не может принимать во внимание каждый из возможных сценариев событий, так как всегда имеется вероятность возникновения непредвиденной ситуации, которая рано или поздно случается. Шутц и его коллеги с этим согласны и предлагают решение этой проблемы в два этапа. По их мнению, все решения роботов будут приниматься с учетом первостепенной этической проверки за счет специальной программы, которая тем или иным образом похожа на одну из самых продвинутых систем вопросно-ответных ИИ, таких как, например, Watson от компании IBM. Если для решения задачи потребуется больше информации, то робот будет полагаться на систему эмуляции моральных ценностей, которую Шутц пытается разработать со своими коллегами. Так как проект развивается при поддержке ВМС США, технология, вероятнее всего, сможет сперва найти свое применение при производстве медицинских роботов, которые будут помогать солдатам на полях сражений. Источники: |
|
|||
© ROBOTICSLIB.RU, 2001-2019
При копировании материалов проекта обязательно ставить ссылку на страницу источник: http://roboticslib.ru/ 'Робототехника' |