Цитата из: Вадим on 24-01-2003, 14:57:25
<..skipped..>
Почему-то существует стереотип, что робот по определению знает больше человека. Почему?
Робот - функционален (тут недавно проходила тема "Профи" - так вот, робот - это супер-профи), он знает только то, что нужно ему для выполнения его задачи. Его алгоритмы касаются только его задачи. Ничего лишнего!
Робот, умеющий расчитать движение космического корабля, понятия не имеет о банковской системе, или, например, о анатомии человека. Всё, что ему нужно - это модель, для которой указано, на какое событие (из ограниченного списка) как она реагирует (для того, чтоб не раздавить пассажиров перегрузкой).
Почти верно. Почти, потому, что робот - действительно "супер-профи" в своей области. Но при этом некие базовые _неспециализированные_ познания в различных областях у робота есть по определению. К примеру, робот-асфальтоукладчик может не разбираться в особенностях биохимии клетки (и не будет в них разбираться - ему это не надо); но он точно знает, с какой силой можно оттолкнуть вдруг выскочившего на дорогу перед ним человека, чтобы не раздавить его и вместе с тем не сломать ему пару ребер.
Полагаю, что в роботов информация о человеке и возможных способах причинения ему вреда закладывается в максимально полном объеме. Так, например, все роботы должны точно знать состав той смеси, которой дышит человек - чтобы не напустить в комнату с людьми какого-нибудь хлора, не подозревая о его вредности.
Цитата из: Вадим on 24-01-2003, 14:57:25
Учитывая, что робот готов воспринимать человека, как априори авторитетное существо (кстати, а почему в законах нет этого? и имеет ли это значение?), человеку очень легко "запудрить мозги" роботу, аппелируя к областям, которые лежат вне границ знаний робота.
Этого в законах нет, потому что предполагается, что самих законов достаточно. Значение это имеет, но, как мне кажется, значение это было понято уже после того, как Три Закона были сформулированы. Проблема в том, что, как было отмечено, _полной_ инфрмацией снабдит робота невозможно. И если робот будет считать, что человеку угрожает опасность, он откажется подчиняться приказам человека, усиливающим опасность для этого человека. Даже если человек будет отдавать такие приказы сознательно, для предотвращения, например, бОльшего, но лишь вероятного вреда.
Пример - робот и человек не смогут служить вместе в одной пожарной части. Ибо как только хоть один пожарный полезет в горящую избу, все его коллеги-роботы, вместо того, чтобы спасать _возможно_ находящихся в здании людей (которых они не видят и наличие которых там только предполагается), начнут "спасать" этого пожарника (которого они как раз прекрасно видят).
Цитата из: I_3am on 25-01-2003, 14:10:04
Цитата из: Dwarf on 25-01-2003, 12:10:30
И ещё, интересно мне стало, а как робот решилбы проблему буриданова осла (надеюсь я не описалься)
На этот случай у него должен быть вариант случайного(псевдослучайного) выбора - орел или решка. Но роботы, описанные Азимовым, по-моему, были лишены такой возможности, когда ситуация требовала применения Законов роботехники. Помните рассказ о роботе, умевшем читать мысли?
Перегорел ведь бедолага.
Дело в том, как мне кажется, что робот не сможет оказаться в положении буриданова осла. Потому что, вотличие от того осла, он может с точностью до микрона измерить рассояние от себя до обеих куч сена. А при такой точности _абсолютно_ равноценным выбор быть не может. Кажется, что-то в этом роде встречалось у Азимова, но не могу найти

.
Что касается робота, читавшего мысли (Эрби, кажется?), то, как я себе это понимаю, сгорел он от другого - он не мог решить, что причинит человеку бОльший вред - неприятная правда, или приятная ложь
- Эрби, как я выгляжу?
-
Потому и сгорел - в нем не была заложена возможность оценивать и сравнивать стольо тонкие и иррациональные категории.
Цитата из: I_3am on 25-01-2003, 14:10:04
Цитата из: Вадим on 24-01-2003, 11:18:56
Тогда 'недобросовестный' человек, может ввести робота в заблуждение и заставить его совершить социально опасное деяние
Не только человек. Другой робот тоже. Помните рассказ о роботе, у которого законы были заданы в неполном виде.
Помним, помним... Просто неполные Законы - это следующая тема, которую я хотел затронуть, потому и старательно обхожу эту тему. но я про нее помню, не сумлевайтись

.
Цитата из: Efreeti on 26-01-2003, 19:58:26
Насчёт выбора из двух зол (два хозяина-убийцы), так, по-моему, робот в этом случае мог бы сделать для себя выбор (кстати, интересно как повёл бы себя человек в такой ситуации) на основании симпатии (этот хозяин заливал в меня хорошее масло).
Насколько я понимаю, идея о равнозначности и равноценности всех людей закладывается в рботов наряду с Тремя Законами. то есть робот не может даже подумать что-то типа "Этот Хозяин лучше того Хозяина потому, что....".
Я так понимаю, Хозяин - он и есть Хозяин. Все одинаково хороши - даже явные преступники, прямо требующие от робота какой-либо немыслимой гадости ("Убей их!! Убей их всех!!!"), не становится от этого "менее Хозяином". И причинить ему вред робот все равно не может. Поэтому, как мне кажется, _так_ рбот расуждать не может.
Цитата из: Efreeti on 26-01-2003, 19:58:26
И ещё. А почему тогда робот не может подумать :" Этот дядька богатый ему 100$ плюнуть и растереть, а эта бабушка умирает с голоду- надо помочь ( из Вашей иерархии ценностей будет следовать, что лучше ограбить, чем дать умереть и его поступок будет для него самого оправдан)." На самом деле я не против, чтобы все так поступали, но мы сейчас не об этом...
Как я понимаю, в описанном Азимовым обществе (я беру только цикл рассказов "Я - робот", не затрагивая (пока) "Калибана", "Инферно" и "Вальгаллу") уж с голоду-то точно никто не помирает. Это раз. И, как я помню, использование роботов на Земле было запрещено - только в космосе (астероиды, планты Солнечной системы, их спутники и т. д.). Поэтому и грабить там было некого.
2
All:
Абсолютно всей информаций робота наделить мы, конечно, не сможем. Поэтому абсолютно полно и точно знать последствия своего поступка он не сможет ни в каком случае. Но это и не требуется - предполагается, что робот действует исходя из той информации, которая у него есть в текущий момент, опираясь на логику, и не вступая в противоречие с Тремя Законами.
Если бы это было не так, то роботы вообще не могли бы действовать - кто знает, сколько человек в будущем повесится на люстре, которуя я, робот-электромонтер, сегодня должен повесить в строящемся здании?