iChemist Профиль Публикации Комментарии Подписки
↓ Двор Ганнеркригг [Gunnerkrigg Court] – Выпуск №1712: Глава 59, страница 17
↓ Tethered – Выпуск №191
#486715
Как раз таки, в предложенной мною (не выдуманной) ситуации торможение в своей полосе - смерть всех, кто в машине. Человек без особых раздумий (да у него и времени нет, все на рефлексах) крутанет баранку вправо, будь там хоть автобусная остановка. У робота же есть возможность решить, и выбрать наименьшее из бед.
Уже сейчас роботы переключают стрелки, опускают мосты, водят автомобили. А дальше - больше. Критические ситуации случаются, и будут случаться. И если не заложить в роботов какие-то критерии выбора "наименьшего зла", получим, например, ситуацию, когда робот-полицейский не будет стрелять в преступника, пыряющего прохожего, т.к. для него жизни будут одинаковы. Ну а чё, первый закон.
Или вы думаете, человек может принимать решения лучше робота?
Простая ситуация. Вы едете по городу, проезжаете мимо остановки, на остановке стоят дети. Слева плотный встречный поток. Внезапно вам под колеса бросается ребенок, вы успеваете заметить, что это ваша дочь. У вас выбор: тормозить и гарантированно ее задавить, или крутануть руль вправо, и сбить трёх неизвестных вам детей. Подозреваю, что даже подумать вы особо не успеете, сделаете все рефлекторно.
Как раз таки, в предложенной мною (не выдуманной) ситуации торможение в своей полосе - смерть всех, кто в машине. Человек без особых раздумий (да у него и времени нет, все на рефлексах) крутанет баранку вправо, будь там хоть автобусная остановка. У робота же есть возможность решить, и выбрать наименьшее из бед.
Уже сейчас роботы переключают стрелки, опускают мосты, водят автомобили. А дальше - больше. Критические ситуации случаются, и будут случаться. И если не заложить в роботов какие-то критерии выбора "наименьшего зла", получим, например, ситуацию, когда робот-полицейский не будет стрелять в преступника, пыряющего прохожего, т.к. для него жизни будут одинаковы. Ну а чё, первый закон.
Или вы думаете, человек может принимать решения лучше робота?
Простая ситуация. Вы едете по городу, проезжаете мимо остановки, на остановке стоят дети. Слева плотный встречный поток. Внезапно вам под колеса бросается ребенок, вы успеваете заметить, что это ваша дочь. У вас выбор: тормозить и гарантированно ее задавить, или крутануть руль вправо, и сбить трёх неизвестных вам детей. Подозреваю, что даже подумать вы особо не успеете, сделаете все рефлекторно.
↓ Tethered – Выпуск №191
Теперь момент про актуальность.
Уже сейчас автопилоты Тесла колесят по дорогам. И уже сейчас перед этим роботом может возникнуть выбор между жизнями людей.
Просто пример: тесла идет на безопасном расстоянии от фуры свои 100км/ч. Фура впереди резко дает по тормозам. А у фуры, которая идет сзади, отказывают тормоза. Если тесла будет тормозить согласно ПДД в своем ряду, задняя фура затолкает ее под переднюю с закономерным итогом:
http://s5.bloknot.ru/wp-content/uploads/2015/02/urg8vfoerfm.jpg
На решение нужны миллисекунды, и человек, если передать управление ему, с его реакцией в 1-2 секунды явно не успевает.
Соответственно, надо съезжать на обочину. Но по обочине идет один (2,3..) человек.
И перед Теслой встает выбор: или угробить своего водителя, или на хорошей скорости сбить пешехода.
Нужен ли для этого полноценный интеллект? Нет. Но скажем вполне логично, с точки зрения продаж Теслы, заложить ценность жизни водителя выше, чем 1 пешехода. Вот в случае 2 пешеходов - тут уже возможны варианты.
Уже сейчас автопилоты Тесла колесят по дорогам. И уже сейчас перед этим роботом может возникнуть выбор между жизнями людей.
Просто пример: тесла идет на безопасном расстоянии от фуры свои 100км/ч. Фура впереди резко дает по тормозам. А у фуры, которая идет сзади, отказывают тормоза. Если тесла будет тормозить согласно ПДД в своем ряду, задняя фура затолкает ее под переднюю с закономерным итогом:
http://s5.bloknot.ru/wp-content/uploads/2015/02/urg8vfoerfm.jpg
На решение нужны миллисекунды, и человек, если передать управление ему, с его реакцией в 1-2 секунды явно не успевает.
Соответственно, надо съезжать на обочину. Но по обочине идет один (2,3..) человек.
И перед Теслой встает выбор: или угробить своего водителя, или на хорошей скорости сбить пешехода.
Нужен ли для этого полноценный интеллект? Нет. Но скажем вполне логично, с точки зрения продаж Теслы, заложить ценность жизни водителя выше, чем 1 пешехода. Вот в случае 2 пешеходов - тут уже возможны варианты.
↓ Tethered – Выпуск №191
#486287
Законы робототехники актуальны уже сейчас, и роботу совсем не надо быть умнее человека, чтобы принимать решения, основанные на "весах" и(или) процентных вероятностях.
Беда в том, что нужен еще какой-то нулевой закон, который позволит оценивать, кого из людей спасать в критической ситуации. В фильме "Я, Робот" это были простые проценты вероятности выживания, и по всей видимости, важно было еще и количество - скажем, робот выберет спасение 2 человек спасению одного. Более сложный алгоритм позволит выбирать еще и качественные показатели, скажем, жизнь ребенка более ценная чем жизнь пожилого, жизнь преступника - менее, чем свободного человека.
В данном случае перед роботом стоит дилемма: два человека бьются насмерть, соответственно, если ничего не предпринять, либо умрет один (в случае девушки, будет нарушен еще и 3й закон - робота тоже разберут), либо умрут оба. Так как в любом случае умрет как минимум один, логично активировать "подзакон", который позволит оценить ценность каждой жизни. Так что с точки зрения первого закона, робот должен помочь убить преступника (скажем, держать его за руки, пока девушка наносит удары), другие действия будут противоречить первому закону.
Законы робототехники актуальны уже сейчас, и роботу совсем не надо быть умнее человека, чтобы принимать решения, основанные на "весах" и(или) процентных вероятностях.
Беда в том, что нужен еще какой-то нулевой закон, который позволит оценивать, кого из людей спасать в критической ситуации. В фильме "Я, Робот" это были простые проценты вероятности выживания, и по всей видимости, важно было еще и количество - скажем, робот выберет спасение 2 человек спасению одного. Более сложный алгоритм позволит выбирать еще и качественные показатели, скажем, жизнь ребенка более ценная чем жизнь пожилого, жизнь преступника - менее, чем свободного человека.
В данном случае перед роботом стоит дилемма: два человека бьются насмерть, соответственно, если ничего не предпринять, либо умрет один (в случае девушки, будет нарушен еще и 3й закон - робота тоже разберут), либо умрут оба. Так как в любом случае умрет как минимум один, логично активировать "подзакон", который позволит оценить ценность каждой жизни. Так что с точки зрения первого закона, робот должен помочь убить преступника (скажем, держать его за руки, пока девушка наносит удары), другие действия будут противоречить первому закону.
Отредактировано «iChemist» 08.08.2016 05:09:12