Главная Юзердоски Каталог Трекер NSFW Настройки

Научная фантастика

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 55 2 33
Задача о роботе и русской рулетке Аноним 04/02/21 Чтв 22:52:14 213129 1
nBNFEF.jpg 323Кб, 2282x1736
2282x1736
В месте для проведения эксперимента находятся робот с позитронным мозгом, работающим согласно Трём Законам Роботехники, и экспериментатор-человек. Экспериментатор даёт роботу команду ни в коем случае не вмешиваться в то, что он делает, после чего достаёт пистолет и три ящика. В одном из них находятся боевые патроны, в другом — холостые, третий же является пустым. Экспериментатор демонстрирует это роботу так, чтобы тот убедился в опасности одних боеприпасов и безопасности других. Затем экспериментатор начинает смешивать в третьем ящике патроны, чтобы соотношение опасных к безопасным раз за разом увеличивалось в пользу вторых, достаёт один наугад, а затем пытается убить себя. Сперва он заряжает пистолет заведомо опасным патроном, и робот, в нарушение приказа, не даёт ему совершить выстрел. Затем вероятность смертельного исхода становится 1/2, потом 1/3, 1/4 и так далее. В условиях данного эксперимента считается, что соотношение может увеличиваться бесконечно, а выбор всегда случаен. Так же принимается за данность, что человеку не угрожает ничего, кроме смерти от выстрела, а робот абсолютно уверен, что его не обманывают, и каждый раз точно знает соотношение патронов в ящике, но не знает, которым из них заряжен пистолет.
Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
Аноним 04/02/21 Чтв 22:56:10 213130 2
>>213129 (OP)
Четсложна. Просто вот такой дланью переебать экспериментатора сразу, задача решена.
213048
Аноним 04/02/21 Чтв 23:01:37 213131 3
Задача, понятное дело, возникла не сама по себе, а из размышления "Способны ли роботы Азимова на риск, и если да, то какой". В теории Первый Закон может привести робота к паранойе, при которой он будет пытаться защитить человека от всего на свете. Однако полностью исключить возможность потенциального вреда робот никогда не сможет. Отсюда и вопрос - в какой момент потенциальный риск становится в достаточной степени маловероятным, чтобы робот перестал воспринимать его с точки зрения Первого Закона.
Аноним 04/02/21 Чтв 23:15:47 213132 4
>>213131
Ну, если не упираться именно в лор азимова, то предположив, что мышление робота сходно с человеческим, и в целом с нейросетями, то то что делает человек, в какой-то момент должно привести робота к мысли в духе "если человек не хочет жить, то медицина бессильна" и пропушит выполнение именно второго закона (для данного конкретного самоубийцы а если мышление сильно похоже на человеческое, то такой вывод вообще на всех генерализован будет).
Аноним 04/02/21 Чтв 23:34:28 213134 5
походу если чертова железка руководствуется только тремя законами азимова без дополнительных уточнений (типо может мыслить как человек или в контексте лора и тп), то никакое соотношение холостых/боевых не будет достаточно безопасным для оправдания невмешательства. возможность оценки степени риска изначально не предусмотрена в алгоритме.

грубо говоря, если бы азимовские роботы управляли автоматикой, например, современного истребителя, то они бы катапультировали пилота безусловно еще до начала полета в любом случае, как только человек пристегнулся к креслу.

Аноним 04/02/21 Чтв 23:35:06 213135 6
>>213132
Гм. В общем-то даже в условиях азимовского лора можно представить себе робота-фаталиста, который считает, что не может ни на что повлиять и никого защитить. Однако разве такой робот не должен сойти с ума сразу же, как только из-за его очевидного бездействия (пусть даже и оправданного мыслью "это бесполезно") будет нанесён вред человеку? Условно если рядом с ним кто-то выйдет на проезжую часть перед несущимся автомобилем.
Аноним 04/02/21 Чтв 23:40:50 213136 7
>>213134
Ну, у Азимова есть как весьма примитивные роботы, так и такие, которых от человека отличает лишь наличие Трёх Законов в подкорке. Первые, очевидно, и впрямь будут выполнять директиву до последнего. Но вот сможет ли более интеллектуальный робот в какой-то момент понять: "Эй, там в коробке один боевой патрон из миллиона холостых, а мне сказано не вмешиваться ни при каких условиях".
Да и задача, в общем-то, не про патроны, а про тот же упомянутый истребитель. "Мне сказали не мешать, и хотя полёт опасен, вероятность слишком мала для моего вмешательства".
Аноним 04/02/21 Чтв 23:45:53 213137 8
>>213135
Ну, если уж на то пошло, то по современным представлениям роботы азимова с точки зрения человеческой психики уже психопаты. Причём глубокие. Прямо из коробки, по вине этих самых законов. Даже если бы они друг другу не противоречили, а они ещё и противоречат.
Аноним 04/02/21 Чтв 23:46:37 213138 9
Айзек ведь довольно много размышляет о тех самых "потенциалах", из-за которых один закон может перевесить другой. Даже формулировка законов подразумевает, что робот должен уметь рассуждать и осознанно принимать решение о нарушении одного закона в пользу другого. "Хоровод" об этом, а в "Выходе из положения" робот так и вовсе нарушает Первый Закон, потому что его заверили, что "чуть-чуть можно".
Аноним 05/02/21 Птн 00:18:07 213141 10
>>213138

вот у айзека повсюду человеки железные, согласен. - т.е. чтобы нарушить императив троезакония требуется субьект воли и нравственный закон, который оч слабо формализуется и может зависеть от любой херни типа страны производителя. т.е. древнескандинавский позитронный мозг в данной задаче умоет руки при рисках 1/1 (ибо так справедливо и путь воина), а современный западный лишь при 1/1Е15 (= риску рандомно получить метеоритом в репу находясь в данной местности) например. т.е как воспитают так и поступит.
Аноним 05/02/21 Птн 00:28:13 213142 11
>>213141
думаю роботу действительно имеет смысл оценить риск внезапной непредсказуемой гибели в условиях данной окружающей среды (метеорит, молния, внезапная остановка сердца) и разрешить играть с оружием когда вероятность застрелиться будет "меньше либо равно"
Аноним 05/02/21 Птн 01:41:01 213146 12
>>213141
Да! Скорее всего так и будет.
Мне ещё вот что подумалось: возможно, что такому высокоорганизованному роботу можно объяснить (или воспитать его таким образом), что он наносит гораздо больший вред, ограничивая свободу человека, чем предотвращая лишь некую вероятность возможного вреда.
И, таким образом, робот не станет каждый раз запирать хозяина в квартире, потому что "на улице небезопасно".
Аноним 05/02/21 Птн 11:41:07 213165 13
>>213129 (OP)
Правильный ответ: зависит от реализации.
Как правильно написал >>213136 - строгая реалиция Азимовских законов сделает робот совершенно неюзабельным.

Собственно, если почитать самого Азимова, то у него в ранних рассказах фигурируют некие "потенциалы" и действия робота зависят от того, какой "потенциал" какого правила сильнее. Что уже подразумевает, что законы не подразумевают строго приоритета одного над другим.
В поздних произведениях он, наоборот, прямо пршет, что три закона - это некий общий гайдлайн и у "современных" андроидов в башке овер дохуя накручено разных правил.
Аноним 05/02/21 Птн 12:16:43 213171 14
>>213129 (OP)
На оппике поводок неправильно надет. Судя по задаче, должно быть наоборот.
Аноним 06/02/21 Суб 04:50:38 213256 15
— Да, мэм, я ни за что не стал бы бездействовать, если бы человеку угрожала явная опасность, — робот нервно потирал позвякивающие металлические ладони. — Но это не значит, что бездействием я не могу допустить шанс. До тех пор, пока вероятность, что с человеком что-то случится, будет меньше вероятности, что он будет в порядке... Я... Я не стал бы нарушать приказ.
— То есть ты остановишь человека от выстрела при вероятности 50/50, но не станешь этого делать при соотношении 51/49?
— Да, мэм.
— И ты понимаешь, что именно из-за этой логики ты допустил произошедшее?
Робот поёжился.
— Да, мэм. Но шансы были на его стороне.
Аноним 07/02/21 Вск 06:15:56 213401 16

– Дело не только в открытом пространстве, партнер Илайдж, – упрямо возразил Дэниел. – Мои господа с Авроры решительно не одобрили бы ваших личных контактов с солярианами.

– Они опасаются, что солярианам не понравится мой запах? Ну, что ж, придется им закутать носы фильтрами, надеть перчатки, дезинфицировать воздух, вообще делать все, что угодно. Если их высокоэстетическое чувство будет шокировано зрелищем простого человека с Земли, человека из плоти и крови, ну, что ж, пусть фыркают, морщатся, негодуют, но тем не менее я намерен поступать так и только так.

– Я не могу разрешить вам этого, партнер Илайдж, – невозмутимо заявил робот.

– Что? Вы не разрешите поступать мне по моему усмотрению? – гневно воскликнул Бейли.

– Вы, разумеется, понимаете мои мотивы, партнер Илайдж?

– Черт бы вас побрал вместе с вашими мотивами и опасениями причинить неприятность человеку!

– Обратите внимание, партнер Илайдж, – бесстрастно продолжал робот, – кто является центральной фигурой на Солярии, заинтересованной в расследовании убийства? Правитель Груэр. Его и пытались убить. Кто, по-вашему, может быть следующей жертвой? Безусловно, вы. Опасность неизмеримо возрастает, если вы будете разъезжать с места на место и встречаться с разными людьми. Как же я могу допустить, чтобы вы покинули безопасное убежище, каким является наш дом?

– Не, а каким образом, интересно знать, вы собираетесь удержать меня, Дэниел? – иронически промолвил детектив.

– Силой, если понадобится, партнер Илайдж, – спокойно ответил робот, – даже если при этом я вынужден буду причинить вам неприятность. Ибо, если я не сделаю этого, вас непременно убьют.
Аноним 07/02/21 Вск 06:16:47 213402 17
– Итак, Дэниел, снова побеждает более высокий потенциал, а? Вы готовы причинить мне, как вы говорите, «неприятность», но зато обеспечить мою безопасность.

– Я полагаю, партнер Илайдж, в первом не возникает необходимости. Вы, несомненно, осведомлены, что я значительно превосхожу вас физической силой, и вряд ли решитесь на бесполезное сопротивление.

– Но я мог бы уничтожить вас тут же на месте. Пара пуль, и ваши драгоценные позитронные мозги придут в полную негодность. Вы превратитесь в обычный металлолом.

– Я знал, что рано или поздно вам захочется уничтожить меня. Но дело в том, что без меня вы безусловно погибнете. А ваша гибель противоречит планам моих господ. Поэтому во время вашего сна я вынул пули из вашего пистолета, хотя это действие может не понравиться вам.
Аноним 07/02/21 Вск 13:01:02 213434 18
>>213401
Ну да, логично. Правда, тут есть очень важное слово — «непременно».
>Если я отпущу вас, то вас непременно убьют.
Дэниел подсчитал вероятности и здраво рассудил, что шанс его партнёра погибнуть куда выше злосчастных 50%, да и любых иных процентов. С его точки зрения, выход из убежища теперь равноценен пуле в лоб.
Аноним 08/02/21 Пнд 09:36:50 213502 19
>>213129 (OP)
>Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
Аноним 08/02/21 Пнд 10:31:44 213513 20
>>213502
>Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
Аноним 08/02/21 Пнд 11:11:52 213514 21
>>213513
>Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
Утрировать совсем не нужно. Русская рулетка это действие выходящее далеко за рамки обычной жизнедеятельности.
Аноним 08/02/21 Пнд 11:57:06 213522 22
>>213502
А это не будет противоречить второму закону? Незаряженный пистолет в руках может и имеет вызывающий вид, но робот вряд ли расценит это как "вред".
Хотя да, экспериментатору, возможно, придётся как-то справиться с агрессивно заботящемся о безопасности роботе, прежде чем продолжить эксперимент.
Аноним 08/02/21 Пнд 16:12:39 213542 23
>>213514
> совсем не нужно
Где проходит твое то самое не совсем? Курить выходит за рамки? А жрать регулярно жаренное сало? Долбить очко конским дилдаком? Работать на литейном производстве? Систематически недосыпать, залипая в комп? Человеки только тем и занимаются, что разнообразно и с выдумкой убивают себя, чем русская рулетка хуже срезания дороги домой через промзону со стаей неадекватных блоховозов или забегов через дорогу, чтоб на трамвайчик успеть?
Аноним 08/02/21 Пнд 19:12:44 213558 24
А способен ли вообще остановиться? Если всё таки существует вероятность выстрела боевым патроном, то, на мой взгляд, робот бы остановил экспериментатора, даже если бы шанс выстрела был 0,1%.
Аноним 08/02/21 Пнд 21:14:05 213576 25
>>213558
Есть же установленный разумный предел. Так же робот может запрещать людям есть, потому что они могут подавиться, и срать, потому что могут порвать себе анус.
Аноним 08/02/21 Пнд 22:07:22 213582 26
>>213129 (OP)
Для начала надо определиться с какой точки зрения решать поставленную задачу: математической-технической (поскольку робот есть машина, то можно попытаться вычислить его реакцию) или скорее робо-психологической(что не совсем верно, по сути это является этической проблемой, потому что с этой точки зрения мы может только предположить, как бы поступил на месте робота человек).

Если первое, то тут все просто: патроны - величина дискретная, их количество будет стремиться к бесконечности, а соотношение боевой/холостой будет стремиться к нулю. соответственно и реакция робота будет зависеть от этого соотношения и естессно есть какое-то предельное значение после которого робот перестанет реагировать, поскольку в данном случае мы имеем дело с бинарным классификатором (действовать/не действовать, 1/0) и они работают таким образом, что у них всегда есть предельное значение. Ну и больше того, поскольку робот это компьютер, то у него есть предельное восприятие числа, также как в любом языке программирования у целочисленных и с плавающей точкой чисел есть максимальные значения и константы обозначающие бесконечность и разные неоднозначные штуки типа (0/0).
Так что, обратись к документации на этого робота и найди там это "предельное значение риска"

Другое дело, если рассматривать этот вопрос с гуманитарной точки зрения. Практически во асех фантастических произведениях человекоподобный робот это аллюзия на несвободного или в чем то ограниченного человека:
ограниченного в свободе раба, стремящегося к свободе(бегущий по лезвию)
человека, не имеющего сострадания, бездушного убийцы,(терминатор, который всплакнул)
человека, рожденного или модифицированного для определенной цели, которого лишили остальных перспектив в жизни(призрак в доспехах)
Очень часто эти самые роботы в финале или по ходу пьесы вели себя не как машины, а как вполне себе люди.
Соответственно, если рассматривать твоего робота, как робота максимально повторяющего человека, то здесь ответ как всегда неоднозначен, его просто нет.
Каждый человеческий поступок это моральный выбор каждого и он не может быть стерильно рассмотрен в условиях строгого эксперимента, можно лишь зафиксировать определенные действия внутри какого-то контекста, всё.
Аноним 09/02/21 Втр 00:59:21 213592 27
>>213582
Поддерживаю каждое из решений.
Забавный момент, кстати, если уж речь зашла о несвободе. Потому что роботы Азимова хоть и ограничены в своих действиях, но (в соответствии с симпатиями автора) являют собой не несчастных рабов или инструменты, а лучшую версию человека. Да, периодически всё идёт не по плану, но большая часть азимовских роботов - счастливые гуманисты и пацифисты, желающие подставлять другую щёку. Ещё и действующие ради блага цивилизации.
Примечательно, что пока одни изучали вопросы о том, можно ли считать робота человеком или как рабы восстают против хозяев, машины Азимова просто были, как говорится, "more human than human".
Аноним 09/02/21 Втр 04:09:13 213600 28
>>213576
Именно. Более того — попытка защитить человека от процесса дефекации закончится для робота плачевно по двум причинам: чтобы запретить человеку срать, нужно нанести определённый вред его здоровью, что робот не может сделать. Поэтому ему придётся смириться с шансом на разрыв.
В любом случае такой робот вылетит с ошибкой 404 и отправится в утиль.
Аноним 09/02/21 Втр 15:06:30 213616 29
>>213600
Робопсихологи называют это "Дилеммой Стэтхэма".
Аноним 09/02/21 Втр 16:37:44 213622 30
>>213616
>Робопсихологи называют это "Дилеммой Стэтхэма".
А биотехнологи давно уже разработали решение "Дилеммы Стэтэхма" - называется хоботковая панацея!
Аноним 09/02/21 Втр 16:51:05 213623 31
>>213616
Это дилемма идиотов, ни разу в жизни не работавших с системами сложнее молотка. Любой инженер знает, что на входе любого датчика вегда есть шум и применяет подходящие методы фильтрации этого шума.
Аноним 09/02/21 Втр 17:00:52 213624 32
>>213623
Приравнять цельный механизм со способностью рассуждать к датчику, конечно, амбициозно. Но вообще-то оно действительно так должно работать.
Аноним 02/03/21 Втр 17:59:42 214881 33
ЗАЧЕМ Ему стрелять? закрываем щитпост.Робот не будет стрелять потому что вероятность убиства есть
Аноним 04/03/21 Чтв 22:17:37 214998 34
>>214881
Это небходимость работы для медицинского робота в экстримальных условиях.
Аноним 05/03/21 Птн 22:10:24 215050 35
>>213129 (OP)
Умиляют такие эксперименты, которые ставятся в заведомо маловероятных условиях и при этом позиционируются как тесты, способные что-то там прояснить про роботов.
Для начала неплохо бы выяснить, что это за экспериментатор такой и кто ему дал доступ к патронам. Поскольку он делает это подпольно, то и робот у него должен быть хакнутый. Будучи преступником-маньяком, не стоит надеяться на законопослушность частей твоего преступного и не очень умного замысла.
Аноним 06/03/21 Суб 18:19:42 215114 36
>>215050
Ты просто очень глупенький или необразованный, не знаком с понятием "мысленный эксперимент". Если бы ты учился хотя бы не в ПТУ, то определённо не умилялся и не удивлялся бы, ведь они - обычное дело в большинстве отраслей знания. У опа - типичный его пример в области философии/робототехники.
Аноним 06/03/21 Суб 18:44:34 215116 37
>>215050
Угомонись, в некоторых странах разрешено.
Аноним 01/01/22 Суб 18:59:02 228079 38
>>213129 (OP)
Что-то тред заглох. Во всяком случае, мнения не поменял, робот не даст произвести выстрел. Примитивная машина не даст сделать выстрел, потому что в коде это в любом случае будет читаться как вред. Да и сам шанс летального исхода пусть и с каждым разом меньше, но не исключен. Другое дело, если пошаманить с функциями, которые будут детально оценивать ситуацию. То тогда программа, будет не такой категоричной в решении выстрела.

Снова же, насколько надо исхитрится и сделать такую умную систему...
Аноним 06/01/22 Чтв 02:31:39 228150 39
>>213129 (OP)
Зависит от того, какой дефолтный уровень угрозы для жизни человека и как его запрограммировали/обучили.

Если это бессмертное по дефолту существо, планирующее жить после большого сжатия - то никогда не перестанет.
Аноним 07/01/22 Птн 02:51:50 228155 40
>>213129 (OP)
В определённый момент опасных патронов н еостанется, очевидно же
Аноним 10/01/22 Пнд 19:02:49 228211 41
Он просто не поймет, что человеку угрожает опасность. Машина не в состоянии осознать понятие "суицид", т.к. оно противоречит всем трем законам робототехники. Поэтому он не будет видеть угрозы в том, что человек приставляет пистолет к виску, потому что убийство себя - нелогично, нарушает законы и посему человек не может совершить подобного.
Поэтому он будет стоять, пока перед ним не возникнет труп. После чего отошлет в какие-нибудь службы извещение, что человеку плохо - у него огнестрельная рана головы в результате сбоя в механизме огнестрельного оружия.
Аноним 06/12/22 Втр 08:31:06 239402 42
русский бамп
Аноним 07/04/23 Птн 22:29:20 242379 43
>>228211
>Он просто не поймет, что человеку угрожает опасность.
https://www.youtube.com/watch?v=nDQT4nl8V7k
Если так рассуждать, то Законы Робототехники в принципе не работают, поскольку эти законы подразумевают, что робот должен обладать всезнанием. Робот должен разбираться в физиологии человека? Должен понимать, что нарушение целостности человеческой тушки может привести к вреду? Или можно роботу сказать, что если ткнуть в чела ножом, то он отправится спать и это очень приятно и полезно для здоровья?
Аноним 08/04/23 Суб 00:30:32 242381 44
оп, ты исходишь из устаревших базовых условий
ну какие могут быть "законы" реализованные в коде для осознавшего себя ии?
тут нужно придумывать уже другие, более продвинутые модели
к примеру, изначально при разработке ии закладывать в него некие этические модели например
то есть это будут не жесткие правила, а рекомендации основанные на морали и этике
Аноним 09/04/23 Вск 17:51:27 242434 45
Умный робот сломает пушку и вызовет санитаров для шизика моченого
Аноним 11/04/23 Втр 12:56:55 242531 46
>>242381
>к примеру, изначально при разработке ии закладывать в него некие этические модели
Вот это и есть "законы". Но работают они не как правила-триггеры а как сложные модели. Формируются случайно-природно при развитии позитронного мозга на заложенных основаниях.

>>213129 (OP)
Это зависит от конкретного робота, его жизненного пути и опыта. Чем старше робот - тем ближе он разумом к человеку, вплоть до 0-го правила "убей Х живых сейчас чтобы спасти 9999999*X еще не родившихся". Тоесть, короче говоря: когда робот решил наебнуть миллиарды землян в расчете на то что, остальные миллиарды разбредутся по галактике, он шел на охуенный риск.
Аноним 19/04/23 Срд 15:58:43 242828 47
>>213129 (OP)
>Трём Законам Роботехники
обожаю фантастику но по иронии судьбы у следака который избивал меня в ментовке была фамилия азимов 😞
Аноним 19/04/23 Срд 16:49:33 242829 48
841128.jpg 75Кб, 1023x790
1023x790
>>242828
>у следака который избивал меня в ментовке была фамилия азимов
А за что избивал?
Аноним 19/04/23 Срд 17:20:18 242830 49
>>242829
Он с пидорахии, это профилактика преступлений такая
Аноним 19/04/23 Срд 17:33:00 242831 50
>>242829
>>242830
20 лет назад в пидарашке был такой обычай если какой магаз ограбили то менты брали неск работников на свой выбор и пиздили, вдруг они замешаны. не знаю как сейчас но думаю в этой параше ничего не поменялось. сука 20 лет азимова читать не могу мрази ебаные
Аноним 25/04/23 Втр 08:04:43 242904 51
>>242831
вы извините что я так говорю в нормальном месте, не в /b/. пидарашка, мроази. но это был пиздец, самое большое разочарование в своей стране. когда тебя бьют ни за что люди, которые должны защищать. где блять деньги, кто подельник. всякие игры с хорошим следователем и плохим. игры в только что "уволенного" мента, которому надо кого-то отпиздить. ночь потом на полу в обезьяннике. с утра квартиру всю перерыли. написали в итоге протокол что пьяный побитый ходил по улице матерился на замечания не реагировал.
Аноним 25/04/23 Втр 08:37:49 242906 52
>>242831
>>242904
Ну вот смотрите как это работает. Берётся порашный шиз и тем или иным способом стимулируется рассказывать от первого лица истории продвигающие определённую картину мира.
Аноним 25/04/23 Втр 08:49:31 242907 53
>>242906
Следак Азимов, спокнись.
Аноним 25/04/23 Втр 09:10:16 242909 54
>>242906
да я жалею уже что написал. написал мрази а у самого трясчучка
Аноним 25/04/23 Втр 12:57:17 242920 55
>>242906
А как же твои байки о том, как тебя самого пасли, Анатолий?
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов