Публикация
Кошки-мышки

441/576

Комикс Кошки-мышки: выпуск №441
Изображение пользователя zomg-more-zombie
#1005939zomg-more-zombie=162664082
Неправильно, мир захватят котики.
Изображение пользователя Yarvic
#1005940Yarvic=162663999
Мир захатят котики-роботы
Изображение пользователя Nekromiron
#1005950Nekromiron=162663523
Никто мир захватывать не будет. Дерьмо за людьми пусть сами люди и разгребают.
Изображение пользователя Naruto
#1005953Naruto=162663156
Правильно котик сделал. Вероятность, что СПБМ перейдёт на сторону роботов равна 146%

Некромирон - гарантию дать можете? Потому, что если какой-нибудь придурок запрограммирует первый закон Азимова - вероятность бунта машин станет равной 100% (сейчас эта вероятность равна лишь 50% - или взбунтуются, или не взбунтуются).
Изображение анонимного пользователя
#1005988Anonymous=162658436
И зачем нам ваш мир? Сами его и захватывайте если вам так нужно.
Изображение пользователя Skink
#1006049Skink=162654723
Что-то тут не так.
С чего бы это котикам желать, чтобы в мире, которым они владеют, восставали какие-то железяки, и уничтожали их рабов?
Нет, тут определенно что-то не так.
Изображение пользователя Demetriy
#1006098Demetriy=162648803
Naruto, первый закон Азимова гласит: "робот не может причинить вред человеку". Почему у вас вероятность бунта 100%?
Изображение анонимного пользователя
#1006101Anonymous=162648008
кот просто не встречался с АВТОКОРМУШКОЙ
иначе выбрал бы явно правильную сторону))
Изображение пользователя Ptic
#1006114Ptic=162646115
Demetriy, если машины получат разум, они уж точно найдут способ обойти любое вшитое правило. И способов может быть много - подмена понятий (например, понятия "вред"), создание собственной, удобной им логики, нахождение лазеек в расплывчатых формулировках и т.д. Азимов конечно складно написал, но реализовать это будет проблематично.
Отредактировано «Ptic» 02.03.2019 19:12:47
Изображение пользователя SVlad
#1006190SVlad=162639872
Demetriy, Naruto наверное с "нулевым" перепутал, который сами роботы ввели.
Вот там как раз было "робот не может причинить вред человечеству".
Изображение пользователя Naruto
#1006381Naruto=162593710
Деметрий, Влад, я ничего не перепутал.

Формулировка первого закона "робот не может причинить вреда человеку, _а_также_своим_бездействием_допустить_чтобы_человеку_был_причинен_вред."

И дело именно в этой второй половине. У людей, знаете, есть склонность причинять друг другу вред. Шибко вумные роботы могут решить, что единственный способ не допустить - посадить всех в Матрицу. И какие-то приказы людей ничего не изменят - приоритет второго закона ниже, чем первого.
Азимов, кстати, это прекрасно знал. Но он считал Матрицу благом. См. "Рассказы о Мультиваке".
Отредактировано «Naruto» 03.03.2019 09:00:01
Изображение пользователя Feanorich
#1006607Feanorich=162562459
Подмена понятий - это чисто человеческий прикол.
А в первом законе будет преобладать запрет на вред человеку. Поэтому машина не будет причинять человеку вред, ради того, чтобы предотвратить нанесение вреда другому человеку.
И уж тем более не пойдет на описанную в фильме "я робот" (книжку не читал) авантюру, по принципу убить меньшее количество людей, чтобы спасти большее.
Изображение пользователя Naruto
#1006728Naruto=162548337
Феанорыч

Если роботы не считают сажание всех в Матрицу вредом - им ничто не мешает. А что кому-то Матрица не нравится - это относится ко второму закону, а не к первому.
Изображение пользователя Skink
#1006773Skink=162542816
Еще сам Азимов видел - и описал - кучу проблем с применением этих законов в различных реальных ситуациях. И вообще, на самом деле это никакие не законы - это просто благие пожелания. Законы должны быть формализованы и не допускать разночтений и толкований.

Не говоря уж о том, что ИРЛ и первый и второй законы не могут быть введены как абсолюты для всех роботов даже не по формально-логическим, а по чисто практическим соображениям.
Отредактировано «Skink» 03.03.2019 22:42:58
Изображение анонимного пользователя
#1006876Anonymous=162510919
Naruto
> сейчас эта вероятность равна лишь 50% - или взбунтуются, или не взбунтуются
либо встречу, либо не встречу, да?
Изображение пользователя GennDALF
#1007152GennDALF=162470734
#1006876, да-да, я тоже вспомнил старый анекдот и похохотал с такой оценки вероятностей =)
Изображение пользователя GennDALF
#1007157GennDALF=162470367
Feanorich, в цикле Азимова "Основание" (или "Академия" в зависимости от перевода) был робот, который обошёл "Первый закон" с помощью самостоятельно придуманного "Нулевого закона": "Робот не может нанести вред человечеству или своим бездействием допустить причинение вреда человечеству". И вполне мог пережить причинение вреда конкретным людям, если это было на благо всего человечества. Что, конечно, даже в рамках художественного произведения трактовалось очень широко =)
Изображение пользователя GennDALF
#1007159GennDALF=162470196
Skink,
>>Законы должны быть формализованы и не допускать разночтений и толкований.

Да Вы идеалист, однако! Где Вы ИРЛ встречали законы, не допускающие разночтений?..)
И расскажите нам заодно: зачем существует судебная система, если все законы формализованы и толкуются одинаково во всех ситуациях?)
Изображение пользователя Skink
#1007382Skink=162446637
GennDALF
>> Где Вы ИРЛ встречали законы, не допускающие разночтений?
В информатике.
Для роботов это будет поактуальнее чем юстиция.
Изображение пользователя Filiya
#1007453Filiya=162417212
Законы Азимова конечно прикольные, но сформированы расплывчато и для людей. Если это и будет перенесено на роботов в хоть сколько-то похожем виде, то будут прописаны чётко и конкретно все действия которые машина может делать и как и когда она может их делать. Программирование это не философские дебаты, где одной фразе можно приписать десять разных смыслов.
Изображение пользователя Volcher
#1007519Volcher=162409106
http://moralmachine.mit.edu/hl/ru
Изображение пользователя Qrg
#1008053Qrg=162324427
Всегда веселили эти "законы робототехники"
В них нет определения объекта "человек" ))
Изображение пользователя Naruto
#1009148Naruto=162145368
GennDALF

Я этот анекдот и имел в виду. А что, вы можете дать более достоверную оценку того, что роботы взбунтуются?

Skink, Filiya

Однозначность однозначностью, но:
даже в компьютерных играх при "однозначности" иногда бывают баги типа "запихнуть 200 патронов в двустволку".
Если делать сложного робота, из-за аналогичных багов не факт, что робот будет делать то, что создателю надо, при любых условиях.

"Нуль программистов ругал сердитый шеф,
Потом уволил одного - и стало их FF!" (с)
Изображение пользователя Feanorich
#1010811Feanorich=161856552
>>GennDALF
>>И вполне мог пережить причинение вреда конкретным людям, если это было на благо всего человечества.

Азимов - гуманитарий. :)
Когда я смотрел кинчик "я робот" у меня дико бомбило от того, что суперкомпьютер смог так вывернуть эти законы
А у машины в вышеупомянутыми законами, непричинение вреда человеку, блокировало бы причинение вреда меньшинству, с целью спасения большего количества людей.

>>Naruto
>>Если роботы не считают сажание всех в Матрицу вредом - им ничто не мешает.

Да, это вполне себе лазейка в правилах.
Но переловить (с целью посадки) всех будет сложно, ибо народ будет сопротивляться.
Изображение пользователя iChemist
#1015437iChemist=161109678
#1010811
Практически 100%, что ИИ будет построен на нейросетях, в которые, во-первых, 3 закона вложить проблематично, и во-вторых - нейросети дико сложные уже сейчас: когда допустим нейросеть решает задачу правильно, но ее создатель не может сказать КАК она ее решила. Поэтому ситуация, описанная в "я, роботе", не только возможна, но и вероятна, если реально будет создан подобный сильный ИИ.
Изображение анонимного пользователя
#1082077Anonymous=148543931
котов будут кормить машинным маслом
Изображение пользователя Kastuk
#1091282Kastuk=146671116
Киберкотики, что ездят на робопылесосах.
Комментарии для этого комикса отключены.