Здесь больше нет рекламы. Но могла бы быть, могла.

Автор Тема: Роботехника  (Прочитано 7024 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Tanechka

  • Гость
Re:Роботехника
« Ответ #20 : 26/01/2003, 18:35:53 »

Цитата из: Dwarf on 25-01-2003, 12:10:30
ЗЫ И ещё, интересно мне стало, а как робот решилбы проблему буриданова осла (надеюсь я не описалься)


Сорри, а можно вкратце описать эту проблему?

               

               

Dwarf

  • Гость
Re:Роботехника
« Ответ #21 : 26/01/2003, 19:45:26 »
 2 Танечка: Осёл умер от голода стоя между двумя равноотдалёнными и равновеликими кучами сена, потомучо не мого решиьт, с какой начать.

               

               

Efreeti

  • Гость
Re:Роботехника
« Ответ #22 : 26/01/2003, 19:58:26 »
      1) Насчёт выбора из двух зол (два хозяина-убийцы), так, по-моему, робот в этом случае мог бы сделать для себя выбор (кстати, интересно как повёл бы себя человек в такой ситуации) на основании симпатии (этот хозяин заливал в меня хорошее масло).
Цитата:
И ещё, интересно мне стало, а как робот решилбы проблему буриданова осла (надеюсь я не описалься)


 РОБОТЫ НЕ ЕДЯТ СЕНО    :)
  И ещё. А почему тогда робот не может подумать :" Этот дядька богатый ему 100$ плюнуть и растереть, а эта бабушка умирает с голоду- надо помочь ( из Вашей иерархии ценностей будет следовать, что лучше ограбить, чем дать умереть и его поступок будет для него самого оправдан)." На самом деле я не против, чтобы все так поступали, но мы сейчас не об этом...

               

               

Снорри

  • Гость
Re:Роботехника
« Ответ #23 : 27/01/2003, 10:56:25 »

Цитата из: Вадим on 24-01-2003, 14:57:25
<..skipped..>
Почему-то существует стереотип, что робот по определению знает больше человека. Почему?
Робот - функционален (тут недавно проходила тема "Профи" - так вот, робот - это супер-профи), он знает только то, что нужно ему для выполнения его задачи. Его алгоритмы касаются только его задачи. Ничего лишнего!

Робот, умеющий расчитать движение космического корабля, понятия не имеет о банковской системе, или, например, о анатомии человека. Всё, что ему нужно - это модель, для которой указано, на какое событие (из ограниченного списка) как она реагирует (для того, чтоб не раздавить пассажиров перегрузкой).


Почти верно. Почти, потому, что робот - действительно "супер-профи" в своей области. Но при этом некие базовые _неспециализированные_ познания в различных областях у робота есть по определению. К примеру, робот-асфальтоукладчик может не разбираться в особенностях биохимии клетки (и не будет в них разбираться - ему это не надо); но он точно знает, с какой силой можно оттолкнуть вдруг выскочившего на дорогу перед ним человека, чтобы не раздавить его и вместе с тем не сломать ему пару ребер.

Полагаю, что в роботов информация о человеке и возможных способах причинения ему вреда закладывается в максимально полном объеме. Так, например, все роботы должны точно знать состав той смеси, которой дышит человек - чтобы не напустить в комнату с людьми какого-нибудь хлора, не подозревая о его вредности.

Цитата из: Вадим on 24-01-2003, 14:57:25
Учитывая, что робот готов воспринимать человека, как априори авторитетное существо (кстати, а почему в законах нет этого? и имеет ли это значение?), человеку очень легко "запудрить мозги" роботу, аппелируя к областям, которые лежат вне границ знаний робота.


Этого в законах нет, потому что предполагается, что самих законов достаточно. Значение это имеет, но, как мне кажется, значение это было понято уже после того, как Три Закона были сформулированы. Проблема в том, что, как было отмечено, _полной_ инфрмацией снабдит робота невозможно. И если робот будет считать, что человеку угрожает опасность, он откажется подчиняться приказам человека, усиливающим опасность для этого человека. Даже если человек будет отдавать такие приказы сознательно, для предотвращения, например, бОльшего, но лишь вероятного вреда.

Пример - робот и человек не смогут служить вместе в одной пожарной части. Ибо как только хоть один пожарный полезет в горящую избу, все его коллеги-роботы, вместо того, чтобы спасать _возможно_ находящихся в здании людей (которых они не видят и наличие которых там только предполагается), начнут "спасать" этого  пожарника (которого они как раз прекрасно видят).

Цитата из: I_3am on 25-01-2003, 14:10:04

Цитата из: Dwarf on 25-01-2003, 12:10:30
 И ещё, интересно мне стало, а как робот решилбы проблему буриданова осла (надеюсь я не описалься)


На этот случай у него должен быть вариант случайного(псевдослучайного) выбора - орел или решка. Но роботы, описанные Азимовым, по-моему, были лишены такой возможности, когда ситуация требовала применения Законов роботехники. Помните рассказ о роботе, умевшем читать мысли?
Перегорел ведь бедолага.


Дело в том, как мне кажется, что робот не сможет оказаться в положении буриданова осла. Потому что, вотличие от того осла, он может с точностью до микрона измерить рассояние от себя до обеих куч сена. А при такой точности _абсолютно_ равноценным выбор быть не может. Кажется, что-то в этом роде встречалось у Азимова, но не могу найти :(.

Что касается робота, читавшего мысли (Эрби, кажется?), то, как я себе это понимаю, сгорел он от другого - он не мог решить, что причинит человеку бОльший вред - неприятная правда, или приятная ложь

- Эрби, как я выгляжу?
-  :-[ :-X :o :(


Потому и сгорел - в нем не была заложена возможность оценивать и сравнивать стольо тонкие и иррациональные категории.

Цитата из: I_3am on 25-01-2003, 14:10:04

Цитата из: Вадим on 24-01-2003, 11:18:56
Тогда 'недобросовестный' человек, может ввести робота в заблуждение и заставить его совершить социально опасное деяние


Не только человек. Другой робот тоже. Помните рассказ о роботе, у которого законы были заданы в неполном виде.



Помним, помним... Просто неполные Законы - это следующая тема, которую я хотел затронуть, потому и старательно обхожу эту тему. но я про нее помню, не сумлевайтись :).

Цитата из: Efreeti on 26-01-2003, 19:58:26
Насчёт выбора из двух зол (два хозяина-убийцы), так, по-моему, робот в этом случае мог бы сделать для себя выбор (кстати, интересно как повёл бы себя человек в такой ситуации) на основании симпатии (этот хозяин заливал в меня хорошее масло).


Насколько я понимаю, идея о равнозначности и равноценности всех людей закладывается в рботов наряду с Тремя Законами. то есть робот не может даже подумать что-то типа "Этот Хозяин лучше того Хозяина потому, что....".

Я так понимаю, Хозяин - он и есть Хозяин. Все одинаково хороши - даже явные преступники, прямо требующие от робота какой-либо немыслимой гадости ("Убей их!! Убей их всех!!!"), не становится от этого "менее Хозяином". И причинить ему вред робот все равно не может. Поэтому, как мне кажется, _так_ рбот расуждать не может.

Цитата из: Efreeti on 26-01-2003, 19:58:26
И ещё. А почему тогда робот не может подумать :" Этот дядька богатый ему 100$ плюнуть и растереть, а эта бабушка умирает с голоду- надо помочь ( из Вашей иерархии ценностей будет следовать, что лучше ограбить, чем дать умереть и его поступок будет для него самого оправдан)." На самом деле я не против, чтобы все так поступали, но мы сейчас не об этом...



Как я понимаю, в описанном Азимовым обществе (я беру только цикл рассказов "Я - робот", не затрагивая (пока) "Калибана", "Инферно" и "Вальгаллу") уж с голоду-то точно никто не помирает. Это раз. И, как я помню, использование роботов на Земле было запрещено - только в космосе (астероиды, планты Солнечной системы, их спутники и т. д.). Поэтому и грабить там было некого.

2 All:
Абсолютно всей информаций робота наделить мы, конечно, не сможем. Поэтому абсолютно полно и точно знать последствия своего поступка он не сможет ни в каком случае. Но это и не требуется - предполагается, что робот действует исходя из той информации, которая у него есть в текущий момент, опираясь на логику, и не вступая в противоречие с Тремя Законами.

Если бы это было не так, то роботы вообще не могли бы действовать - кто знает, сколько человек в будущем повесится на люстре, которуя я, робот-электромонтер, сегодня должен повесить в строящемся здании?

               

               

Саурон

  • Гость
Re:Роботехника
« Ответ #24 : 28/01/2003, 13:46:41 »
Вернемся к ситуации с двумя злами... Если он выберет меньшее (не говоря уж о большем) - то причинит вред человеку, что противоречит одному из Трех Правил. Поэтому робот обязан будет ничего не предпринимать.

               

               

Снорри

  • Гость
Re:Роботехника
« Ответ #25 : 28/01/2003, 16:05:26 »

Цитата из: Саурон on 28-01-2003, 13:46:41
Вернемся к ситуации с двумя злами... Если он выберет меньшее (не говоря уж о большем) - то причинит вред человеку, что противоречит одному из Трех Правил. Поэтому робот обязан будет ничего не предпринимать.



Если честно, то вот так: если робот ничего не предпримет, то он также причинит вред, что также противоречит Трем Законам. На практике это приводит к гибели робота, после каковой он нам становится неинтересен :).

А посему давайте все же вернемся к первоначальному вопросу..

               

               

Efreeti

  • Гость
Re:Роботехника
« Ответ #26 : 28/01/2003, 22:04:47 »
     Что ж, тогда мой вердикт- НЕТ(если его не хакать).

               

               

Снорри

  • Гость
Re:Роботехника
« Ответ #27 : 29/01/2003, 09:52:26 »
"Хакать" его в принципе нельзя - Три Закона в робота зашиты на аппаратном уровне. А вот "сошл инжинирить" - на здоровье. О чем (в том числе) и был вопрос.

Так что, никто не видит никакой возможности для робота умышленно навредить человеку?

               

               

I_3am

  • Гость
Re:Роботехника
« Ответ #28 : 29/01/2003, 15:12:02 »
Если оставаться в рамках, заданных Азимовым, то я не вижу возможности причинения вреда умышленно. Напомню еще один рассказ. Робот баллотируется на выборах. Чтобы доказать, что он человек, ему нужно ударить человека, и он таки бьет. Но не человека, а такого же человекоподобного робота. Казалось бы, если робот может толковать законы, то в чем же дело: вмажь кому-нибудь, побеждай на выборах, твори добро, все путем. Но, видимо, даже столь продвинутый робот, умеющий оценивать и сравнивать тонкие и иррациональные категории, должен соблюдать законы роботехники буквально, не толкуя их расширительно(если я верно употребляю это слово). То есть по крайней мере это касается вреда физического. И цикла рассказов о роботехнике. Так что в случае с обоюдным покушением на убийство, боюсь, робот мог бы вмешаться только как пассивный защитник, например, прикрыл бы кого-нибудь(я не имею в виду, огнем гвоздомета).
Но совершенный робот, восприимчивостью и обучаемостью не уступающий человеку и превосходящий его вычислительной способностью и сроком жизни(в течение которого он может обучаться), возможно и преодолеет такое ограничение. Я имею в виду робота Дэниэла Оливо из «Хроник Академии», он же Демерзель. На том уровне государственной службы, которого достиг Демерзель, не причинить кому-либо физический вред невозможно. А вспомните, каким был Дэниэл Оливо в самом начале своего жизненного пути. В «Стальных пещерах». Аморальным с точки зрения земного человечества.

А у kidd'а, кажется, припасена домашняя заготовка...

               

               

Снорри

  • Гость
Re:Роботехника
« Ответ #29 : 29/01/2003, 18:15:07 »
"Домашними заготовками" не пользуюсь в принципе. И из принципиальных соображений. Единственное исключение - КВН, да и то было очень давно..

По существу. I_3am-сан мало того, что читает мои мысли - так он их тут же постит в форум. Я не то чтобы против - но так и до паранойи недалеко (кстати, нодо будет в "Грамматике" спросить - как правильно писать это слово).

Моя точка зрения на вопрос выражена целиком и полностью, вплоть до соответствующих цитат. Единственное, что я сознательно избегал слишком подробных цитат, требующих знакомства с конкретными текстами - я надеялся обойтись чистой логикой. Однако, считая правильным ответ "нет", я, тем не менее, не обольщал себя надеждами на собственную непогрешимость и ожидал, что совместными усилиями заинтересовавшихся людей можно будет найти опревержение моей уверенности. Не нашли - ну и хорошо, буду дальше гордиться своим интеллектом ;).

Сейчас вот, немного подумаю, и сформулирую второй свой вопрос...

2 I_3am:
Дэниэл - тот самый пример, который зародил во мне первые сомнения в безупречности Трех Законов. Ибо в действительности ни один робот не может быть абсолютно уверен в том, что какой-то конкретный его поступок в дальнейшем не причинит вреда человеку - мало ли, как оно повернется. Но в таком случае выходило, что ни один робот вообще не должен был ничего делать - что абсурдно. Отсюда напрашивался логический вывод - Первый Закон не мешает роботу совершать те поступки, негативных (в смысле Трех Законов) последствий которых он не может предвидеть напрямую.

Но, с другой стороны, ведь и правда, чем дольше живет (функционирует?) робот, тем больше он узнает (роботы все ж  таки самообучаемы), соответственно, тем дальше он видит последствия своих поступков. Следовательно, либо императивность Трех Законов (в первую очередь - Первого) постепенно ослабляется/видоизменяется, либо после какого-то критического времени мозг робота обязательно коллапсирует. Поскольку о втором у Азимова нет ни слова, а первое подтверждается, как минимум, на примере Дэниэла, то я и пришел к выводу, что робот (пусть и не с самого начала, а по прошествии времени), теоретически, может интерпретировать Три Закона не совсем буквально.

А потаенный смысл моего вопроса именно в том и заключался - как далеко можно зайти в этом сАмом "не совсем"?

               

               

Tanechka

  • Гость
Re:Роботехника
« Ответ #30 : 10/02/2003, 21:47:38 »
"Всегда  будут  страдать
люди, возможно, много людей, так что  робот  должен  выбирать  минимальный
вред. Вся сложность состоит в том, что для выбора требуется время, но даже
после этого полной уверенности нет." Дэниел Оливо. Айзек Азимов "Основание и Земля"


               

               

Dwarf

  • Гость
Re:Роботехника
« Ответ #31 : 26/04/2003, 02:21:18 »
Думаецца мне, что единственный способ  не довести робота до глюков это:
Во-первых, ограничить его дальновидность по времени. Тобишь пример с люстрой отпадает6 роботу сказали "Прикрути!" - он прикрутил, а что там дальше буде - его не беспокоит, главное, чтоб не на его глазах и чтоб на крюке от люстры не было таблички "ВешаЦЦа тута <---".
Во-вторых, как ограничение первому пункту будет идти ограничение по логике, мол если его попросили всыпать цианид в чашку в ресторане, то он должён врубицца, что ВПОЛНЕ ВЕРОЯТНО, что из неё кто-то попьёт и отравицца нафиг... вот.

               

               

Снорри

  • Гость
Re:Роботехника
« Ответ #32 : 31/05/2003, 12:14:46 »

Цитата из: Tanechka on 10-02-2003, 21:47:38
"Всегда  будут  страдать
люди, возможно, много людей, так что  робот  должен  выбирать  минимальный
вред. Вся сложность состоит в том, что для выбора требуется время, но даже
после этого полной уверенности нет." Дэниел Оливо. Айзек Азимов "Основание и Земля"


Совершенно верно. Кстати, это пример того, чего я и хотел тут видеть - пример прекрасного знания текстов Професс, сорри, забылся :). Я к тому, что логика при рассуждениях должна опираться на условности и фактологию, взятую не из своей головы, а из текстов.



Подытоживая, приведу несколько цитат из текста "Роботы и Империя" (Robots And Empire, 1985) - текста, в котором автор дал ответ на многие вопросы.


Это отрывок из разговора двух наиболее совершенных роботов - Жискара и Дэниела:
Цитата:
- Я говорю уже много десятилетий, что у  тебя тенденция думать по-человечески, но я не уверен, что это комплимент. Хотя ты и стараешься думать подобно человеку, ты все-таки не человек и связан Тремя Законами. Ты не можешь повредить человеку, землянин он или космонит.
- Бывают случаи, друг Жискар, когда приходится выбирать между двумя людьми. У нас специальный приказ защищать леди Глэдис.  Защищая ее, я могу быть вынужден нанести вред человеку, и я думаю, что при прочих равных
условиях, я немного охотнее повредил бы космониту, чтобы защитить землянина.
- Это тебе кажется. В действительности тебя вели бы специфические обстоятельства. Ты обнаружил бы, что не можешь обобщать


И, наконец, о возможности робота намеренно причинить вред человеку. Фанильная сцена:

Цитата:
- Роботы,  мы космониты,  больше того,  мы аврорцы, с планеты, где вы были сконструированы.  И еще того больше, мы официальные высокие лица на Авроре,
и вы должны понимать слово "люди" в Трех Законах Роботехники, как означающее аврорцев. Если вы не повинуетесь нам сейчас,  вы вредите нам и унижаете нас и нарушаете этим Первый и Второй Законы. Это правда, что наши действия здесь направлены на уничтожение землян, даже большое их
количество, но это к делу не относится. Это все равно, как если бы вы отказались повиноваться нам, потому что мы едим мясо убитых нами животных. Ну, я объяснил вам все, а теперь убирайтесь!

Но последние слова превратились в хрип.  Глаза Амадейро вытаращились и он упал. Мандамус, беззвучно открыв рот, склонился над ним. Жискар сказал:

- Доктор Мандамус, доктор Амадейро жив. Он в коме, из которой его в любое время можно вывести. Но он забудет все, связанное с этим проектом, и ничего не поймет, если вы станете объяснять ему. Когда я это сделал - я не мог бы  этого сделать, если бы не собственное признание доктора Амадейро, что он намерен уничтожить большое количество землян - я, возможно, навсегда повредил некоторые участки его памяти и его мыслительные способности. Сожалею, но ничем не могу помочь.

- Знаете, доктор Мандамус, - сказал Дэниел, - некоторое время назад мы встретили на  Солярии роботов, которые узко определяли человека только как солярианина.  Мы поняли,  что если у других роботов сузить определение того или иного рода, они могут стать причиной безмерных разрушений. Бесполезно пытаться  ограничить у  нас определение "люди" только аврорцами. Мы определяем людей, как всех членов рода Homo sapiens,  включающего землян и поселенцев, и мы чувствуем, что предупредить вред для группы людей и человечества в целом важнее, чем предупредить вред для индивидуума.

- Первый Закон говорит не так, - почти беззвучно сказал Мандамус.

- Я называю это Нулевым Законом, и он предшествует Первому.

- Ты не был запрограммирован на такое.

- Так я сам себя запрограммировал. И поскольку я знаю, что вы присутствуете здесь для миссии нанесения вреда, вы не можете приказать мне
уйти или удержать меня от нанесения вреда вам. Поэтому я прошу вас добровольно уничтожить эти ваши приборы, иначе я буду вынужден угрожать вам, как делал доктор Амадейро, хотя я и не воспользуюсь бластером.


Надеюсь, это является достаточным ответом на вопрос. К сожалению, эту книгу я прочитал после того, как задал свой изначальный вопрос. Думаю, что если бы не это, и вопроса у меня такого не возникло.

На следующей неделе я постарюсь повнятнее сформулировать еще один, весьма и весьма интересный вопрос. Я даже названием для него придумал: "Анитьюринг" :)

               

               

VOZ

  • Гость
Re:Роботехника
« Ответ #33 : 20/11/2003, 19:59:19 »
По моему о неукоснительном соблюдении этих законов может идти речь, только если робот обладает весьма ограниченным интелектом. (То есть на уровне сегодняшних роботов или не далекого будующего.) Если же робот будет обладать сравнимым с человеческим интелектом, то эти законы будут напоминать законы для раба. К примеру попробуйте заменить в их формулировке слово человек на хозяин, а робот - на раб. Сдесь возникнет может возникнуть вопрос и о мятяже.

               

               

Симагин Гендо

  • Гость
Re:Роботехника
« Ответ #34 : 26/11/2003, 06:27:11 »
    По поводу законов Азимова.
Второй закон выполняется и сейчас. Третий закон - это всего лишь своеобразный "принцип оптимизации", подчиненный Второму закону. Так что наиболее интересен Первый закон.
     Дальнейшее рассуждение идет в предположении, что в случае выбора между вредом и вредом робот выбирает иеньший вред.
    Первый закон необходимо ограничить. Иначе может возникнуть ситуация: полностью определить, что такое "вред", невозможно. Поэтому определение вреда будет как-то ограничено. Далее, может сложиться ситуация, когда больший вред относится к категории "неопределенного". Далее, из-за действий робота получится, что будет нанесен больший вред. Кроме того, люди часто склонны сами себе вредить. Далее, робот с достаточными возможностями может начать ограничивать людей, чтобы они сами себе зла не причиняли. В результате может выйти ситуация из фильмов "Матрица" или "Отроки во Вселенной", Весьма возможно, что ситуация в Матрице возникла из-за подчинения Второго закона Первому.
    Конечно, из-за Второго закона бывают проблемы (преступность и ошибки людей). Но в случае сомнительных приказов робот может требовать подтверждения. Можно в случае опасных приказов требовать согласия более 50% людей, которым наностится вред. Проблемы все равно остаются, но нельзя требовать от роботов решения чисто человеческих проблем!

               

               

VOZ

  • Гость
Re:Роботехника
« Ответ #35 : 26/11/2003, 17:44:16 »
В принципе согласен. За любые действия робота должен отвечать его хозяин, т.е. тот кто отдал приказ. Ведь понятия добра и зла присуще только людям. Да и под час трудно судить, что есть добро, а что зло. Естественно робот не может определить хорошо то, что он делает или плохо. Да, а вообще он не должен это решать. По моему, он должен в любом случае выполнить приказ. К примеру, разве граната в руках человека, может определить кто ее держит, да и какая по сути разница. Если эта машина была специально создана, что-бы убивать. Она ведь не виновата что ее такой создали.

               

               

Мунин

  • Гость
Re:Роботехника
« Ответ #36 : 26/11/2003, 18:25:50 »
В Матрице Законов Роботехники заложено не было. См. Animatrix.

               

               

VOZ

  • Гость
Re:Роботехника
« Ответ #37 : 01/12/2003, 19:16:02 »
По моему, нам надо ответить на один вопрос: что мы понимаем под понятием "робот"?
1. Это "бездушный" автомат, созданный только для выполнения конкретных приказов. Тогда какие для него вообще законы могут быть? Он должен выполнять любые приказы, не смотря ни на что.
2. Это "создание" с высоким уровнем интелекта. Тогда к нему должно быть отношение как "к равному" и, следовательно, действовать "человеческие" законы.

               

               

Симагин Гендо

  • Гость
Re:Роботехника
« Ответ #38 : 02/12/2003, 05:45:44 »
     Мунин, что в "Матрице" были законы роботехники - это моя гипотеза...
     Воз,
1. а) Автомат может быть относительно универсален...
     б) Для достаточно сложного и ответственного автомата должны быть "предусмотрение ошибок" и "защита от взлома". Даже сейчас на компьютере может стоять пароль на вход и при удалении файлов ОС требует подтверждения. А если робот управляет атомным реактором или для хирургии, тем более нужны меры безопасности.
2. Согласен. Если робот равен по возможностям человеку, его права должны быть соответствующие.

               

               

Мунин

  • Гость
Re:Роботехника
« Ответ #39 : 02/12/2003, 17:41:07 »

Цитата из: Симагин Гендо on 02-12-2003, 05:45:44
     Мунин, что в "Матрице" были законы роботехники - это моя гипотеза...


Ну вот она не согласуется с самим первоисточником, с такой его неотъемлемой частью, как "Аниматрица". Где чуть ли не прямым текстом утверждается обратное.