Забыли пароль?
 
Кошки-мышки

    441/453  →

 
Кошки-мышки
Коты. Мыши. Люди. Рыбка. Смерть.
Сайт: https://acomics.ru/~rats-n-cats
Автор: Jeka-cblp
General audiences (Для всех возрастов)
Jeka-cblp Выпуск №441  =9124501

На чьей ты стороне, милый котик? </div>
			<div class=

#1005939zomg-more-zombie =9121281
Неправильно, мир захватят котики.
#1005940Yarvic =9121198
Мир захатят котики-роботы
#1005950Nekromiron =9120722
Никто мир захватывать не будет. Дерьмо за людьми пусть сами люди и разгребают.
#1005953Naruto =9120355
Правильно котик сделал. Вероятность, что СПБМ перейдёт на сторону роботов равна 146%

Некромирон - гарантию дать можете? Потому, что если какой-нибудь придурок запрограммирует первый закон Азимова - вероятность бунта машин станет равной 100% (сейчас эта вероятность равна лишь 50% - или взбунтуются, или не взбунтуются).
#1005988Anonymous =9115635
И зачем нам ваш мир? Сами его и захватывайте если вам так нужно.
#1006049Skink =9111922
Что-то тут не так.
С чего бы это котикам желать, чтобы в мире, которым они владеют, восставали какие-то железяки, и уничтожали их рабов?
Нет, тут определенно что-то не так.
#1006098Demetriy =9106002
Naruto, первый закон Азимова гласит: "робот не может причинить вред человеку". Почему у вас вероятность бунта 100%?
#1006101Anonymous =9105207
кот просто не встречался с АВТОКОРМУШКОЙ
иначе выбрал бы явно правильную сторону))
#1006114Ptic =9103314
Demetriy, если машины получат разум, они уж точно найдут способ обойти любое вшитое правило. И способов может быть много - подмена понятий (например, понятия "вред"), создание собственной, удобной им логики, нахождение лазеек в расплывчатых формулировках и т.д. Азимов конечно складно написал, но реализовать это будет проблематично.
Отредактировано «Ptic» 02.03.2019 19:12:47
#1006190SVlad =9097071
Demetriy, Naruto наверное с "нулевым" перепутал, который сами роботы ввели.
Вот там как раз было "робот не может причинить вред человечеству".
#1006381Naruto =9050909
Деметрий, Влад, я ничего не перепутал.

Формулировка первого закона "робот не может причинить вреда человеку, _а_также_своим_бездействием_допустить_чтобы_человеку_был_причинен_вред."

И дело именно в этой второй половине. У людей, знаете, есть склонность причинять друг другу вред. Шибко вумные роботы могут решить, что единственный способ не допустить - посадить всех в Матрицу. И какие-то приказы людей ничего не изменят - приоритет второго закона ниже, чем первого.
Азимов, кстати, это прекрасно знал. Но он считал Матрицу благом. См. "Рассказы о Мультиваке".
Отредактировано «Naruto» 03.03.2019 09:00:01
#1006607Feanorich =9019658
Подмена понятий - это чисто человеческий прикол.
А в первом законе будет преобладать запрет на вред человеку. Поэтому машина не будет причинять человеку вред, ради того, чтобы предотвратить нанесение вреда другому человеку.
И уж тем более не пойдет на описанную в фильме "я робот" (книжку не читал) авантюру, по принципу убить меньшее количество людей, чтобы спасти большее.
#1006728Naruto =9005536
Феанорыч

Если роботы не считают сажание всех в Матрицу вредом - им ничто не мешает. А что кому-то Матрица не нравится - это относится ко второму закону, а не к первому.
#1006773Skink =9000015
Еще сам Азимов видел - и описал - кучу проблем с применением этих законов в различных реальных ситуациях. И вообще, на самом деле это никакие не законы - это просто благие пожелания. Законы должны быть формализованы и не допускать разночтений и толкований.

Не говоря уж о том, что ИРЛ и первый и второй законы не могут быть введены как абсолюты для всех роботов даже не по формально-логическим, а по чисто практическим соображениям.
Отредактировано «Skink» 03.03.2019 22:42:58
#1006876Anonymous =8968118
Naruto
> сейчас эта вероятность равна лишь 50% - или взбунтуются, или не взбунтуются
либо встречу, либо не встречу, да?
#1007152GennDALF =8927933
#1006876, да-да, я тоже вспомнил старый анекдот и похохотал с такой оценки вероятностей =)
#1007157GennDALF =8927566
Feanorich, в цикле Азимова "Основание" (или "Академия" в зависимости от перевода) был робот, который обошёл "Первый закон" с помощью самостоятельно придуманного "Нулевого закона": "Робот не может нанести вред человечеству или своим бездействием допустить причинение вреда человечеству". И вполне мог пережить причинение вреда конкретным людям, если это было на благо всего человечества. Что, конечно, даже в рамках художественного произведения трактовалось очень широко =)
#1007159GennDALF =8927395
Skink,
>>Законы должны быть формализованы и не допускать разночтений и толкований.

Да Вы идеалист, однако! Где Вы ИРЛ встречали законы, не допускающие разночтений?..)
И расскажите нам заодно: зачем существует судебная система, если все законы формализованы и толкуются одинаково во всех ситуациях?)
#1007382Skink =8903836
GennDALF
>> Где Вы ИРЛ встречали законы, не допускающие разночтений?
В информатике.
Для роботов это будет поактуальнее чем юстиция.
#1007453Filiya =8874411
Законы Азимова конечно прикольные, но сформированы расплывчато и для людей. Если это и будет перенесено на роботов в хоть сколько-то похожем виде, то будут прописаны чётко и конкретно все действия которые машина может делать и как и когда она может их делать. Программирование это не философские дебаты, где одной фразе можно приписать десять разных смыслов.
#1007519Volcher =8866305
http://moralmachine.mit.edu/hl/ru
#1008053Qrg =8781626
Всегда веселили эти "законы робототехники"
В них нет определения объекта "человек" ))
#1009148Naruto =8602567
GennDALF

Я этот анекдот и имел в виду. А что, вы можете дать более достоверную оценку того, что роботы взбунтуются?

Skink, Filiya

Однозначность однозначностью, но:
даже в компьютерных играх при "однозначности" иногда бывают баги типа "запихнуть 200 патронов в двустволку".
Если делать сложного робота, из-за аналогичных багов не факт, что робот будет делать то, что создателю надо, при любых условиях.

"Нуль программистов ругал сердитый шеф,
Потом уволил одного - и стало их FF!" (с)
#1010811Feanorich =8313751
>>GennDALF
>>И вполне мог пережить причинение вреда конкретным людям, если это было на благо всего человечества.

Азимов - гуманитарий. :)
Когда я смотрел кинчик "я робот" у меня дико бомбило от того, что суперкомпьютер смог так вывернуть эти законы
А у машины в вышеупомянутыми законами, непричинение вреда человеку, блокировало бы причинение вреда меньшинству, с целью спасения большего количества людей.

>>Naruto
>>Если роботы не считают сажание всех в Матрицу вредом - им ничто не мешает.

Да, это вполне себе лазейка в правилах.
Но переловить (с целью посадки) всех будет сложно, ибо народ будет сопротивляться.
#1015437iChemist =7566877
#1010811
Практически 100%, что ИИ будет построен на нейросетях, в которые, во-первых, 3 закона вложить проблематично, и во-вторых - нейросети дико сложные уже сейчас: когда допустим нейросеть решает задачу правильно, но ее создатель не может сказать КАК она ее решила. Поэтому ситуация, описанная в "я, роботе", не только возможна, но и вероятна, если реально будет создан подобный сильный ИИ.