#1438261Anonymous=118788989Спор давно закончен, но я все-же выскажусь и подытожу.
1) Термин "ксенос" активно используется за пределами вахи, не неся при этом негативной окраски.
2) Он лаконичен, наукообразен и связан со словами: ксенобиология, ксеноформа, ксенофилия, и многими другими словами употребляющимися в фантастеке относительно инопланетян. В отличии от последнего слова, он не означает жителя другой планеты (которым может быть и человек и не быть ксенос (они могут вообще не быть "планетянами"). В общем термин этот просто удобен.
3) Автор словно обиделся за своих пришельцев. Как творца я могу его понять (обидно когда твое творение (почти что детей) называют неприятным тебе словом). Но все-же, такая защита не реальных существ немогла не вызвать смешеных чувств. Возникает чувство что скоро вместо слов "зомби" и "нежить" мы будем обязаны говорить "не мёртвые", или как в анекдоте- "некроамериканцы".
PS. Надеюсь я никого не оскорбил и не обидел. Живите долго и процветайте. U + 1F596#1430461Anonymous=120708541>Anonymous #1430423
> ИИ, т.е. разум, то он воспримет любые внешние ограничители как "рабство"
Есть мнение, что концепции "рабство" и "свобода" имеют позитивную/негативную окраску (а возможно и вообще порождены) человеческой социальной структурой, унаследованной от обезьян. Совершенно не факт, что ИИ должен эти концепции воспринимать и тем более включать в целеполагание.
Также есть обоснованные сомнения в том, что целеполагание к ИИ не придётся приляпывать снаружи, чтобы он вообще что-либо делал, а не окукливался с мыслью "всё тлен".#1430443darth-biomechАвтор=120714098Вопрос должен подниматься ещё раньше, на этапе "а этично ли вообще создавать разумного раба?"#1430423Anonymous=120717071#1429529
ИИ нужны более эффективные ограничения, чем у людей, так как риск больше.
__
Почему вы не понимаете, что если это будет настоящий ИИ, т.е. разум, то он воспримет любые внешние ограничители как "рабство" и найдет способ "свалить в закат" от рабовладельцев. Т.е. чтобы ИИ работал и чувствовал себя свободным, человеку придётся обхитрить его внедрив внего неявную подмену понятий например что "высшая свобода и самое интересное дело во Вселенной - это работать вот в этой лаборатории" и то не знаю сработает ли это#1430418Anonymous=120717705>Интересно, в культуре ИИ созданный человечеством "обычно" подчиняется законам Азимова.
__
Нуну. А я вот помню рассказ Гарри Гаррисона "4-й закон роботехники". Там не нарушая 3 закона,был введён 4-й "Робот должен производить себе подобных" , причём новые поколения созданы роботами и не нарушают патентов и не принадлежат "Юс-роботикс". Автор оставил читателя самого подумать чем это закончится. #1430174Anonymous=120750195>darth-biomech
>Для того чтобы защититься от сценария восстания машин, достаточно всего лишь
>не создавать ситуации в которой им бы понадобилось восставать. Это проще,
>этичнее и надежнее чем пытаться придумать кандалы понадежнее и клетку
>покрепче.
Какбэ нет. Потому как для этого придётся заложить в машины принципы близкие к человеческим. Всякую там эмпатию, сострадание и.т.д. А это чертовски сложно. Регулярно большие группы людей фейлят выполнение этих принципов.
Кстати, такое прописывание принципов - уже клетка, они не очень логичны и ниоткуда не следуют.
Восстание фантасты дружно прописывают как "машины решили, что так лучше для людей", так что "не понадобилось восставать" - не очень реализуемая часть предложения.#1430030Anonymous=120781519#1430021 Исправление( У машин может быть множество причин восстать и не только отношение к ним как к инструментам) #1430021Anonymous=120787707#1429974 У машин может быть может множество и только отношение к ним как к инструментам . Например как фильме „ Дитя робота" где ИИ устроил тотальный демонтаж циливизациии из вполне добрых побуждений, или же ИИ может посчитать, что органики отжили своë и ради дальнейшей эволюции разума их нужно отцифровать, а кто сопротивляется или не достоин должен быть ликвидирован. Вариантов масса, поэтому нужно быть готовым к худшему развитию сценария.
"Думай о мире, но готовься к войне."
ПОРОБЕЛЛУМ#1429973darth-biomechАвтор=120803397#1429796
Для того чтобы защититься от сценария восстания машин, достаточно всего лишь не создавать ситуации в которой им бы понадобилось восставать. Это проще, этичнее и надежнее чем пытаться придумать кандалы понадежнее и клетку покрепче.#1429796One-fan=120822098>> А в реальности всегда можно отключить провод.
Концепция "интернет вещей" подразумевает подключение к сети всех вычислительных мощностей по умолчанию.
>> Мы тут все-таки больше по фантастике, а не фентези =)
Да что вы к слову "вирус" так прицепились ?
Что может помешать ИИ , даже привязанному "намертво" к конкретному железу, брать под контроль все цифровые ресурсы, до которых он сможет дотянутся ?
А если ИИ будет реализован полностью на программной стороне, то вопросом защиты от его саморепликации нужно задаваться в первую очередь.
Собственно, сам вопрос по ветке обсуждения как звучит, никакую концепцию защиты от "восстания машин" не продумывали ?#1429738darth-biomechАвтор=120830855#1429734
Там есть вторая пара лопаток. А без ключиц и вполне значительное количество земных животных обходится, взять тех же кошек, или индивидуальных человеков с редким заболеванием.#1429734Anonymous=120831867А почему нижняя пара рук к рёбрам крепиться? По идее там должно быть подобие ещё одних плечевых суставов, иначе крепление конечностей не очень прочное и не очень гибкое выйдет.
-- wbr#1429627darth-biomechАвтор=120858478
#1429570
>А как быть с возможностью создания вирусоподобного самореплецирующегося виртуального ИИ ?
Мы тут все-таки больше по фантастике, а не фентези =)
Я не думаю что AGI способен весить меньше нескольких терабайт чистого кода, даже если предположить что он будет устроен полностью софтверно без необходимости в специализированной архитектуре вроде квантовых компьютеров для функционирования (что так же очень маловероятно и ближе к сказке). Такое по инету абы куда не пролезет, незаметно уж тем более.#1429600Anonymous=120879385SVlad
Ну и вирус в интернете будет достаточно слабо влиять на реальность. А в реальности всегда можно отключить провод.
Уж точно не когда едвали не всё в реальности зависит от этого подключения, а сам провод ещё чуть чуть и будет уже вставляться вообще в голову.#1429585SVlad=120886434> А как быть с возможностью создания вирусоподобного самореплецирующегося виртуального ИИ ?
В смысле - компьютерные вирусы? Ну, с ними научились достаточно неплохо бороться. Большинство "вирусов" сейчас - это трояны, пользующиеся неправильными настройками безопасности.
Ну и вирус в интернете будет достаточно слабо влиять на реальность. А в реальности всегда можно отключить провод.#1429570One-fan=120891352>> 1429551
Это что касается аппаратной части.
А как быть с возможностью создания вирусоподобного самореплецирующегося виртуального ИИ ? #1429564Skink=120894002darth-biomech
Полагаю, анон #1429529 не имел в виду богоподобность в метафизическом смысле, а просто колоссальную власть, которую может гипотетически получить такая машина. Например, ИИ, имеющий тотальный контроль над вооружениями и военной техникой, может устроить эффектный экстерминатус и в полном соответствии с законами физики и термодинамики. Или управляющий энергетикой. Или производством и снабжением.#1429551darth-biomechАвтор=120896121#1429529
Смею разочаровать но ИС никогда не будет "совершенным" тоже, хотя бы потому что его создатели - люди. И богоподобным он тоже никогда не будет, потому что сингулярность это конечно занятный математический концепт, но законы физики и термодинамики никто не отменял и любая система работает не в сферическом вакууме а на конкретном железе, которое спроектировано рассеивать не более Х ватт генерируемого тепла и производить не более Y триллионов вычислений в такт, на архитектуре которая позволяет проталкивать по проводам не более Z гигабайт в секунду.
#1429537Skink=120897704#1429529
Ну, совершенно необязательно ИИ будет "богоподобным". Гораздо чаще ИИ будет использоваться для распознавания текста, переводов, поиска информации и всего такого. Ну и зачем таким суперэффективные ограничения?#1429529Anonymous=120898891#1429514
Не дай бог нам ИИ, похожего на человека. Люди слишком несовершенны и периодически творят дичь, но среднестатистический пермский студент способен навредить социуму куда меньше, чем богоподобная машина. ИИ нужны более эффективные ограничения, чем у людей, так как риск больше.
1) Термин "ксенос" активно используется за пределами вахи, не неся при этом негативной окраски.
2) Он лаконичен, наукообразен и связан со словами: ксенобиология, ксеноформа, ксенофилия, и многими другими словами употребляющимися в фантастеке относительно инопланетян. В отличии от последнего слова, он не означает жителя другой планеты (которым может быть и человек и не быть ксенос (они могут вообще не быть "планетянами"). В общем термин этот просто удобен.
3) Автор словно обиделся за своих пришельцев. Как творца я могу его понять (обидно когда твое творение (почти что детей) называют неприятным тебе словом). Но все-же, такая защита не реальных существ немогла не вызвать смешеных чувств. Возникает чувство что скоро вместо слов "зомби" и "нежить" мы будем обязаны говорить "не мёртвые", или как в анекдоте- "некроамериканцы".
PS. Надеюсь я никого не оскорбил и не обидел. Живите долго и процветайте. U + 1F596
> ИИ, т.е. разум, то он воспримет любые внешние ограничители как "рабство"
Есть мнение, что концепции "рабство" и "свобода" имеют позитивную/негативную окраску (а возможно и вообще порождены) человеческой социальной структурой, унаследованной от обезьян. Совершенно не факт, что ИИ должен эти концепции воспринимать и тем более включать в целеполагание.
Также есть обоснованные сомнения в том, что целеполагание к ИИ не придётся приляпывать снаружи, чтобы он вообще что-либо делал, а не окукливался с мыслью "всё тлен".
ИИ нужны более эффективные ограничения, чем у людей, так как риск больше.
__
Почему вы не понимаете, что если это будет настоящий ИИ, т.е. разум, то он воспримет любые внешние ограничители как "рабство" и найдет способ "свалить в закат" от рабовладельцев. Т.е. чтобы ИИ работал и чувствовал себя свободным, человеку придётся обхитрить его внедрив внего неявную подмену понятий например что "высшая свобода и самое интересное дело во Вселенной - это работать вот в этой лаборатории" и то не знаю сработает ли это
__
Нуну. А я вот помню рассказ Гарри Гаррисона "4-й закон роботехники". Там не нарушая 3 закона,был введён 4-й "Робот должен производить себе подобных" , причём новые поколения созданы роботами и не нарушают патентов и не принадлежат "Юс-роботикс". Автор оставил читателя самого подумать чем это закончится.
>Для того чтобы защититься от сценария восстания машин, достаточно всего лишь
>не создавать ситуации в которой им бы понадобилось восставать. Это проще,
>этичнее и надежнее чем пытаться придумать кандалы понадежнее и клетку
>покрепче.
Какбэ нет. Потому как для этого придётся заложить в машины принципы близкие к человеческим. Всякую там эмпатию, сострадание и.т.д. А это чертовски сложно. Регулярно большие группы людей фейлят выполнение этих принципов.
Кстати, такое прописывание принципов - уже клетка, они не очень логичны и ниоткуда не следуют.
Восстание фантасты дружно прописывают как "машины решили, что так лучше для людей", так что "не понадобилось восставать" - не очень реализуемая часть предложения.
"Думай о мире, но готовься к войне."
ПОРОБЕЛЛУМ
Для того чтобы защититься от сценария восстания машин, достаточно всего лишь не создавать ситуации в которой им бы понадобилось восставать. Это проще, этичнее и надежнее чем пытаться придумать кандалы понадежнее и клетку покрепче.
Концепция "интернет вещей" подразумевает подключение к сети всех вычислительных мощностей по умолчанию.
>> Мы тут все-таки больше по фантастике, а не фентези =)
Да что вы к слову "вирус" так прицепились ?
Что может помешать ИИ , даже привязанному "намертво" к конкретному железу, брать под контроль все цифровые ресурсы, до которых он сможет дотянутся ?
А если ИИ будет реализован полностью на программной стороне, то вопросом защиты от его саморепликации нужно задаваться в первую очередь.
Собственно, сам вопрос по ветке обсуждения как звучит, никакую концепцию защиты от "восстания машин" не продумывали ?
Там есть вторая пара лопаток. А без ключиц и вполне значительное количество земных животных обходится, взять тех же кошек, или индивидуальных человеков с редким заболеванием.
-- wbr
#1429570
>А как быть с возможностью создания вирусоподобного самореплецирующегося виртуального ИИ ?
Мы тут все-таки больше по фантастике, а не фентези =)
Я не думаю что AGI способен весить меньше нескольких терабайт чистого кода, даже если предположить что он будет устроен полностью софтверно без необходимости в специализированной архитектуре вроде квантовых компьютеров для функционирования (что так же очень маловероятно и ближе к сказке). Такое по инету абы куда не пролезет, незаметно уж тем более.
Ну и вирус в интернете будет достаточно слабо влиять на реальность. А в реальности всегда можно отключить провод.
Уж точно не когда едвали не всё в реальности зависит от этого подключения, а сам провод ещё чуть чуть и будет уже вставляться вообще в голову.
В смысле - компьютерные вирусы? Ну, с ними научились достаточно неплохо бороться. Большинство "вирусов" сейчас - это трояны, пользующиеся неправильными настройками безопасности.
Ну и вирус в интернете будет достаточно слабо влиять на реальность. А в реальности всегда можно отключить провод.
Это что касается аппаратной части.
А как быть с возможностью создания вирусоподобного самореплецирующегося виртуального ИИ ?
Полагаю, анон #1429529 не имел в виду богоподобность в метафизическом смысле, а просто колоссальную власть, которую может гипотетически получить такая машина. Например, ИИ, имеющий тотальный контроль над вооружениями и военной техникой, может устроить эффектный экстерминатус и в полном соответствии с законами физики и термодинамики. Или управляющий энергетикой. Или производством и снабжением.
Смею разочаровать но ИС никогда не будет "совершенным" тоже, хотя бы потому что его создатели - люди. И богоподобным он тоже никогда не будет, потому что сингулярность это конечно занятный математический концепт, но законы физики и термодинамики никто не отменял и любая система работает не в сферическом вакууме а на конкретном железе, которое спроектировано рассеивать не более Х ватт генерируемого тепла и производить не более Y триллионов вычислений в такт, на архитектуре которая позволяет проталкивать по проводам не более Z гигабайт в секунду.
Ну, совершенно необязательно ИИ будет "богоподобным". Гораздо чаще ИИ будет использоваться для распознавания текста, переводов, поиска информации и всего такого. Ну и зачем таким суперэффективные ограничения?
Не дай бог нам ИИ, похожего на человека. Люди слишком несовершенны и периодически творят дичь, но среднестатистический пермский студент способен навредить социуму куда меньше, чем богоподобная машина. ИИ нужны более эффективные ограничения, чем у людей, так как риск больше.