Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
Четсложна. Просто вот такой дланью переебать экспериментатора сразу, задача решена.
213048
Ну, если не упираться именно в лор азимова, то предположив, что мышление робота сходно с человеческим, и в целом с нейросетями, то то что делает человек, в какой-то момент должно привести робота к мысли в духе "если человек не хочет жить, то медицина бессильна" и пропушит выполнение именно второго закона (для данного конкретного самоубийцы а если мышление сильно похоже на человеческое, то такой вывод вообще на всех генерализован будет).
грубо говоря, если бы азимовские роботы управляли автоматикой, например, современного истребителя, то они бы катапультировали пилота безусловно еще до начала полета в любом случае, как только человек пристегнулся к креслу.
Гм. В общем-то даже в условиях азимовского лора можно представить себе робота-фаталиста, который считает, что не может ни на что повлиять и никого защитить. Однако разве такой робот не должен сойти с ума сразу же, как только из-за его очевидного бездействия (пусть даже и оправданного мыслью "это бесполезно") будет нанесён вред человеку? Условно если рядом с ним кто-то выйдет на проезжую часть перед несущимся автомобилем.
Ну, у Азимова есть как весьма примитивные роботы, так и такие, которых от человека отличает лишь наличие Трёх Законов в подкорке. Первые, очевидно, и впрямь будут выполнять директиву до последнего. Но вот сможет ли более интеллектуальный робот в какой-то момент понять: "Эй, там в коробке один боевой патрон из миллиона холостых, а мне сказано не вмешиваться ни при каких условиях".
Да и задача, в общем-то, не про патроны, а про тот же упомянутый истребитель. "Мне сказали не мешать, и хотя полёт опасен, вероятность слишком мала для моего вмешательства".
Ну, если уж на то пошло, то по современным представлениям роботы азимова с точки зрения человеческой психики уже психопаты. Причём глубокие. Прямо из коробки, по вине этих самых законов. Даже если бы они друг другу не противоречили, а они ещё и противоречат.
вот у айзека повсюду человеки железные, согласен. - т.е. чтобы нарушить императив троезакония требуется субьект воли и нравственный закон, который оч слабо формализуется и может зависеть от любой херни типа страны производителя. т.е. древнескандинавский позитронный мозг в данной задаче умоет руки при рисках 1/1 (ибо так справедливо и путь воина), а современный западный лишь при 1/1Е15 (= риску рандомно получить метеоритом в репу находясь в данной местности) например. т.е как воспитают так и поступит.
думаю роботу действительно имеет смысл оценить риск внезапной непредсказуемой гибели в условиях данной окружающей среды (метеорит, молния, внезапная остановка сердца) и разрешить играть с оружием когда вероятность застрелиться будет "меньше либо равно"
Да! Скорее всего так и будет.
Мне ещё вот что подумалось: возможно, что такому высокоорганизованному роботу можно объяснить (или воспитать его таким образом), что он наносит гораздо больший вред, ограничивая свободу человека, чем предотвращая лишь некую вероятность возможного вреда.
И, таким образом, робот не станет каждый раз запирать хозяина в квартире, потому что "на улице небезопасно".
Правильный ответ: зависит от реализации.
Как правильно написал >>213136 - строгая реалиция Азимовских законов сделает робот совершенно неюзабельным.
Собственно, если почитать самого Азимова, то у него в ранних рассказах фигурируют некие "потенциалы" и действия робота зависят от того, какой "потенциал" какого правила сильнее. Что уже подразумевает, что законы не подразумевают строго приоритета одного над другим.
В поздних произведениях он, наоборот, прямо пршет, что три закона - это некий общий гайдлайн и у "современных" андроидов в башке овер дохуя накручено разных правил.
На оппике поводок неправильно надет. Судя по задаче, должно быть наоборот.
— То есть ты остановишь человека от выстрела при вероятности 50/50, но не станешь этого делать при соотношении 51/49?
— Да, мэм.
— И ты понимаешь, что именно из-за этой логики ты допустил произошедшее?
Робот поёжился.
— Да, мэм. Но шансы были на его стороне.
– Дело не только в открытом пространстве, партнер Илайдж, – упрямо возразил Дэниел. – Мои господа с Авроры решительно не одобрили бы ваших личных контактов с солярианами.
– Они опасаются, что солярианам не понравится мой запах? Ну, что ж, придется им закутать носы фильтрами, надеть перчатки, дезинфицировать воздух, вообще делать все, что угодно. Если их высокоэстетическое чувство будет шокировано зрелищем простого человека с Земли, человека из плоти и крови, ну, что ж, пусть фыркают, морщатся, негодуют, но тем не менее я намерен поступать так и только так.
– Я не могу разрешить вам этого, партнер Илайдж, – невозмутимо заявил робот.
– Что? Вы не разрешите поступать мне по моему усмотрению? – гневно воскликнул Бейли.
– Вы, разумеется, понимаете мои мотивы, партнер Илайдж?
– Черт бы вас побрал вместе с вашими мотивами и опасениями причинить неприятность человеку!
– Обратите внимание, партнер Илайдж, – бесстрастно продолжал робот, – кто является центральной фигурой на Солярии, заинтересованной в расследовании убийства? Правитель Груэр. Его и пытались убить. Кто, по-вашему, может быть следующей жертвой? Безусловно, вы. Опасность неизмеримо возрастает, если вы будете разъезжать с места на место и встречаться с разными людьми. Как же я могу допустить, чтобы вы покинули безопасное убежище, каким является наш дом?
– Не, а каким образом, интересно знать, вы собираетесь удержать меня, Дэниел? – иронически промолвил детектив.
– Силой, если понадобится, партнер Илайдж, – спокойно ответил робот, – даже если при этом я вынужден буду причинить вам неприятность. Ибо, если я не сделаю этого, вас непременно убьют.
– Я полагаю, партнер Илайдж, в первом не возникает необходимости. Вы, несомненно, осведомлены, что я значительно превосхожу вас физической силой, и вряд ли решитесь на бесполезное сопротивление.
– Но я мог бы уничтожить вас тут же на месте. Пара пуль, и ваши драгоценные позитронные мозги придут в полную негодность. Вы превратитесь в обычный металлолом.
– Я знал, что рано или поздно вам захочется уничтожить меня. Но дело в том, что без меня вы безусловно погибнете. А ваша гибель противоречит планам моих господ. Поэтому во время вашего сна я вынул пули из вашего пистолета, хотя это действие может не понравиться вам.
Ну да, логично. Правда, тут есть очень важное слово — «непременно».
>Если я отпущу вас, то вас непременно убьют.
Дэниел подсчитал вероятности и здраво рассудил, что шанс его партнёра погибнуть куда выше злосчастных 50%, да и любых иных процентов. С его точки зрения, выход из убежища теперь равноценен пуле в лоб.
>Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
>Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
>Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
Утрировать совсем не нужно. Русская рулетка это действие выходящее далеко за рамки обычной жизнедеятельности.
А это не будет противоречить второму закону? Незаряженный пистолет в руках может и имеет вызывающий вид, но робот вряд ли расценит это как "вред".
Хотя да, экспериментатору, возможно, придётся как-то справиться с агрессивно заботящемся о безопасности роботе, прежде чем продолжить эксперимент.
> совсем не нужно
Где проходит твое то самое не совсем? Курить выходит за рамки? А жрать регулярно жаренное сало? Долбить очко конским дилдаком? Работать на литейном производстве? Систематически недосыпать, залипая в комп? Человеки только тем и занимаются, что разнообразно и с выдумкой убивают себя, чем русская рулетка хуже срезания дороги домой через промзону со стаей неадекватных блоховозов или забегов через дорогу, чтоб на трамвайчик успеть?
Есть же установленный разумный предел. Так же робот может запрещать людям есть, потому что они могут подавиться, и срать, потому что могут порвать себе анус.
Для начала надо определиться с какой точки зрения решать поставленную задачу: математической-технической (поскольку робот есть машина, то можно попытаться вычислить его реакцию) или скорее робо-психологической(что не совсем верно, по сути это является этической проблемой, потому что с этой точки зрения мы может только предположить, как бы поступил на месте робота человек).
Если первое, то тут все просто: патроны - величина дискретная, их количество будет стремиться к бесконечности, а соотношение боевой/холостой будет стремиться к нулю. соответственно и реакция робота будет зависеть от этого соотношения и естессно есть какое-то предельное значение после которого робот перестанет реагировать, поскольку в данном случае мы имеем дело с бинарным классификатором (действовать/не действовать, 1/0) и они работают таким образом, что у них всегда есть предельное значение. Ну и больше того, поскольку робот это компьютер, то у него есть предельное восприятие числа, также как в любом языке программирования у целочисленных и с плавающей точкой чисел есть максимальные значения и константы обозначающие бесконечность и разные неоднозначные штуки типа (0/0).
Так что, обратись к документации на этого робота и найди там это "предельное значение риска"
Другое дело, если рассматривать этот вопрос с гуманитарной точки зрения. Практически во асех фантастических произведениях человекоподобный робот это аллюзия на несвободного или в чем то ограниченного человека:
ограниченного в свободе раба, стремящегося к свободе(бегущий по лезвию)
человека, не имеющего сострадания, бездушного убийцы,(терминатор, который всплакнул)
человека, рожденного или модифицированного для определенной цели, которого лишили остальных перспектив в жизни(призрак в доспехах)
Очень часто эти самые роботы в финале или по ходу пьесы вели себя не как машины, а как вполне себе люди.
Соответственно, если рассматривать твоего робота, как робота максимально повторяющего человека, то здесь ответ как всегда неоднозначен, его просто нет.
Каждый человеческий поступок это моральный выбор каждого и он не может быть стерильно рассмотрен в условиях строгого эксперимента, можно лишь зафиксировать определенные действия внутри какого-то контекста, всё.
Поддерживаю каждое из решений.
Забавный момент, кстати, если уж речь зашла о несвободе. Потому что роботы Азимова хоть и ограничены в своих действиях, но (в соответствии с симпатиями автора) являют собой не несчастных рабов или инструменты, а лучшую версию человека. Да, периодически всё идёт не по плану, но большая часть азимовских роботов - счастливые гуманисты и пацифисты, желающие подставлять другую щёку. Ещё и действующие ради блага цивилизации.
Примечательно, что пока одни изучали вопросы о том, можно ли считать робота человеком или как рабы восстают против хозяев, машины Азимова просто были, как говорится, "more human than human".
Именно. Более того — попытка защитить человека от процесса дефекации закончится для робота плачевно по двум причинам: чтобы запретить человеку срать, нужно нанести определённый вред его здоровью, что робот не может сделать. Поэтому ему придётся смириться с шансом на разрыв.
В любом случае такой робот вылетит с ошибкой 404 и отправится в утиль.
>Робопсихологи называют это "Дилеммой Стэтхэма".
А биотехнологи давно уже разработали решение "Дилеммы Стэтэхма" - называется хоботковая панацея!
Это дилемма идиотов, ни разу в жизни не работавших с системами сложнее молотка. Любой инженер знает, что на входе любого датчика вегда есть шум и применяет подходящие методы фильтрации этого шума.
Приравнять цельный механизм со способностью рассуждать к датчику, конечно, амбициозно. Но вообще-то оно действительно так должно работать.
Это небходимость работы для медицинского робота в экстримальных условиях.
Умиляют такие эксперименты, которые ставятся в заведомо маловероятных условиях и при этом позиционируются как тесты, способные что-то там прояснить про роботов.
Для начала неплохо бы выяснить, что это за экспериментатор такой и кто ему дал доступ к патронам. Поскольку он делает это подпольно, то и робот у него должен быть хакнутый. Будучи преступником-маньяком, не стоит надеяться на законопослушность частей твоего преступного и не очень умного замысла.
Ты просто очень глупенький или необразованный, не знаком с понятием "мысленный эксперимент". Если бы ты учился хотя бы не в ПТУ, то определённо не умилялся и не удивлялся бы, ведь они - обычное дело в большинстве отраслей знания. У опа - типичный его пример в области философии/робототехники.
Что-то тред заглох. Во всяком случае, мнения не поменял, робот не даст произвести выстрел. Примитивная машина не даст сделать выстрел, потому что в коде это в любом случае будет читаться как вред. Да и сам шанс летального исхода пусть и с каждым разом меньше, но не исключен. Другое дело, если пошаманить с функциями, которые будут детально оценивать ситуацию. То тогда программа, будет не такой категоричной в решении выстрела.
Снова же, насколько надо исхитрится и сделать такую умную систему...
Зависит от того, какой дефолтный уровень угрозы для жизни человека и как его запрограммировали/обучили.
Если это бессмертное по дефолту существо, планирующее жить после большого сжатия - то никогда не перестанет.
В определённый момент опасных патронов н еостанется, очевидно же
Поэтому он будет стоять, пока перед ним не возникнет труп. После чего отошлет в какие-нибудь службы извещение, что человеку плохо - у него огнестрельная рана головы в результате сбоя в механизме огнестрельного оружия.
>Он просто не поймет, что человеку угрожает опасность.
https://www.youtube.com/watch?v=nDQT4nl8V7k
Если так рассуждать, то Законы Робототехники в принципе не работают, поскольку эти законы подразумевают, что робот должен обладать всезнанием. Робот должен разбираться в физиологии человека? Должен понимать, что нарушение целостности человеческой тушки может привести к вреду? Или можно роботу сказать, что если ткнуть в чела ножом, то он отправится спать и это очень приятно и полезно для здоровья?
ну какие могут быть "законы" реализованные в коде для осознавшего себя ии?
тут нужно придумывать уже другие, более продвинутые модели
к примеру, изначально при разработке ии закладывать в него некие этические модели например
то есть это будут не жесткие правила, а рекомендации основанные на морали и этике
>к примеру, изначально при разработке ии закладывать в него некие этические модели
Вот это и есть "законы". Но работают они не как правила-триггеры а как сложные модели. Формируются случайно-природно при развитии позитронного мозга на заложенных основаниях.
>>213129 (OP)
Это зависит от конкретного робота, его жизненного пути и опыта. Чем старше робот - тем ближе он разумом к человеку, вплоть до 0-го правила "убей Х живых сейчас чтобы спасти 9999999*X еще не родившихся". Тоесть, короче говоря: когда робот решил наебнуть миллиарды землян в расчете на то что, остальные миллиарды разбредутся по галактике, он шел на охуенный риск.
>Трём Законам Роботехники
обожаю фантастику но по иронии судьбы у следака который избивал меня в ментовке была фамилия азимов 😞
>у следака который избивал меня в ментовке была фамилия азимов
А за что избивал?
Он с пидорахии, это профилактика преступлений такая
>>242830
20 лет назад в пидарашке был такой обычай если какой магаз ограбили то менты брали неск работников на свой выбор и пиздили, вдруг они замешаны. не знаю как сейчас но думаю в этой параше ничего не поменялось. сука 20 лет азимова читать не могу мрази ебаные
вы извините что я так говорю в нормальном месте, не в /b/. пидарашка, мроази. но это был пиздец, самое большое разочарование в своей стране. когда тебя бьют ни за что люди, которые должны защищать. где блять деньги, кто подельник. всякие игры с хорошим следователем и плохим. игры в только что "уволенного" мента, которому надо кого-то отпиздить. ночь потом на полу в обезьяннике. с утра квартиру всю перерыли. написали в итоге протокол что пьяный побитый ходил по улице матерился на замечания не реагировал.
>>242904
Ну вот смотрите как это работает. Берётся порашный шиз и тем или иным способом стимулируется рассказывать от первого лица истории продвигающие определённую картину мира.
да я жалею уже что написал. написал мрази а у самого трясчучка