Savil Профиль Публикации Комментарии Подписки
↓ Глубина заблуждения – Выпуск №1090
> Есть слово сотрудничество, какого хрена вы засоряете этими коллабами язык?
"Новогоднее сотрудничество". "Мы нарисовали сотрудничество" :D
Тут как раз тот случай, когда в английском есть очень ёмкий устоявшийся термин, который не передать с теми же оттенками в русском, потому что это не просто "сотрудничество", а совместное творчество нескольких авторов, работающих над различными проектами. Если над каким-то проектом работает команда авторов, то это вполне себе сотрудничество, но никак не коллаб.
Можно было бы, конечно, придумать свой сомнительный термин вроде "со-творчество", но зачем изобретать велосипед?
"Новогоднее сотрудничество". "Мы нарисовали сотрудничество" :D
Тут как раз тот случай, когда в английском есть очень ёмкий устоявшийся термин, который не передать с теми же оттенками в русском, потому что это не просто "сотрудничество", а совместное творчество нескольких авторов, работающих над различными проектами. Если над каким-то проектом работает команда авторов, то это вполне себе сотрудничество, но никак не коллаб.
Можно было бы, конечно, придумать свой сомнительный термин вроде "со-творчество", но зачем изобретать велосипед?
Отредактировано «Savil» 29.12.2020 10:51:31
> то есть это разница между микро- и макросостояниями
Я вообще не понимаю, что вы имеете в виду под этим. Если вы этим хотите что-то сказать, а не просто бросаетесь умными словами - пожалуйста, поясните.
> Ну почитайте вы что ли теорию энтропии
Что вы понимаете под "теорией энтропии"? Энтропия встречается в разных областях, некоей единой "теории энтропии" нет. Если вы имеете в виде почитать что-то конкретное, то формулируйте как-то отчетливее, что ли, что именно, по-вашему, я должен читать.
> Иными словами, это состояние пространства (системы), в котором отсутствует связность между причиной и следствием.
Вы понимаете, что такое "детерминированность"? Функции в теории хаоса строго определены, тем не менее, их поведение становится непредсказуемым. В задаче N тел все причины и следствия тоже известны, а на выходе опять же непредсказуемость.
> У энтропии есть логические взаимосвязи, а она предссказывается в большом количестве случаев.
Может, лучше вы почитаете разные определения энтропии, прежде чем высказывать подобную чушь? Какие логические взаимосвязи у меры беспорядочности движения частиц? Какие логические взаимосвязи у вероятности получить определенный бит информации? Что значит "энтропия предсказывается в большом количестве случаев", откуда вы вообще выкопали этот бред?
> Хаос не предсказывается никак и никогда.
Я не понимаю, почему вы противопоставляете энтропию хаосу. Энтропия - мера хаотизации. Если энтропия равна нулю - состояние системы полностью определено. Чем больше энтропия - тем беспорядочнее система, т.е. тем меньше мы можем предсказать ее состояние в какой-то момент времени. Чем это отличается от хаоса в вашем понимании?
И главный вопрос - какое отношение ваши разглагольствования имеют к комиксу?
Я вообще не понимаю, что вы имеете в виду под этим. Если вы этим хотите что-то сказать, а не просто бросаетесь умными словами - пожалуйста, поясните.
> Ну почитайте вы что ли теорию энтропии
Что вы понимаете под "теорией энтропии"? Энтропия встречается в разных областях, некоей единой "теории энтропии" нет. Если вы имеете в виде почитать что-то конкретное, то формулируйте как-то отчетливее, что ли, что именно, по-вашему, я должен читать.
> Иными словами, это состояние пространства (системы), в котором отсутствует связность между причиной и следствием.
Вы понимаете, что такое "детерминированность"? Функции в теории хаоса строго определены, тем не менее, их поведение становится непредсказуемым. В задаче N тел все причины и следствия тоже известны, а на выходе опять же непредсказуемость.
> У энтропии есть логические взаимосвязи, а она предссказывается в большом количестве случаев.
Может, лучше вы почитаете разные определения энтропии, прежде чем высказывать подобную чушь? Какие логические взаимосвязи у меры беспорядочности движения частиц? Какие логические взаимосвязи у вероятности получить определенный бит информации? Что значит "энтропия предсказывается в большом количестве случаев", откуда вы вообще выкопали этот бред?
> Хаос не предсказывается никак и никогда.
Я не понимаю, почему вы противопоставляете энтропию хаосу. Энтропия - мера хаотизации. Если энтропия равна нулю - состояние системы полностью определено. Чем больше энтропия - тем беспорядочнее система, т.е. тем меньше мы можем предсказать ее состояние в какой-то момент времени. Чем это отличается от хаоса в вашем понимании?
И главный вопрос - какое отношение ваши разглагольствования имеют к комиксу?