Что-то здесь не так. "Самоприменимость", как она тут сформулирована - частный случай "проблемы остановки": проверить по программе+данным, остановится ли эта программа. В курсе дискретной математики она приводится, как пример одной из задач, алгоритмически неразрешимых
Ну, алгоритмическая неразрешимость нас в конечном счёте и интересует
Доказательство идет от противного и сводится к "парадоксу лжеца".
Думаю, приведённое Вами доказательство более точное.
Хотя и парадокс лжеца должен быть как-то решён для человека, на него натыкающегося на практике (хотя бы тем самым мифическим брадобреем). Практическое решение, впрочем, не всегда соответствует полному теоретическому.
Неужели человек, анализируя свое мышление, способен по тексту задачи (любой!) понять, сможет ли он решить эту задачу за конечное время?
Я, собственно, и не говорю, что рефлексия человека определяет применимость к любой задаче. Я говорю, что он применим к себе.
Других аналогов "самоприменимости" применительно к человеку я придумать не могу.
Ну, я считаю таким аналогом утверждение сознания о собственном существовании.
Программа, которая
может отслеживать время, которое ушло на вычисления, затраченную память, следить за состоянием "железа" и при необходимости переходить в экономный режим , определённо выглядит обладающей интроспекцией. Однако, для машины это по прежнему "тут есть такая программа, которая, как мне сообщает система, имеет такие-то свойства, столько-то памяти, столько-то прочего, и в зависимости от этих цифр мне нужно сделать то-то". При этом, в процессе могут участвовать системные или "железные" надпрограммы слежения за памятью.
Остаётся проблема, насколько философским и насколько объективным является понятие "Я".
"Насколько объективным" является наличие субъективного переживания как отдельной сущности (хотя полностью его отрицать так просто не получится).
Практически это означает, что программа, перебирающая алгоритмы, в самом принципе перебора никогда не сможет себя перепроверить без прямого указания перепроверять. И даже тогда - не найдёт решения, которое в ней не заложено потенциально.
Биологический парадокс, собственно, в том, что у человека органов чувствования самого мозга вроде бы не обнаружено. То есть, непонятно, откуда он мог бы получать информацию о собственных мыслях (но сейчас механизм действия больших полушарий известен лишь приблизительно и можно предполагать, что там ещё разберутся).
P.S. А я тоже не знаю компьютеров, не сводимых к машине Тьюринга. Может быть, все-таки, просветите?
Если бы я такие хотя бы математические машины знал, сам бы не спрашивал.
Если бы такая теория была бы уже разработана и могла быть обнаружена Яндексом, её мог бы найти любой участник темы и без моей помощи.
Но, тогда бы упомянутый тезис Тьюринга был бы уже опровергнут, а сейчас, хотя его и оспаривают, отвергать его нельзя.
Мне лично толковые теории, которые бы основывались на его отвержении, не попадались.
Важное "кстати": Машина Тьюринга предполагает бесконечную ленту, которую реальная цифровая машина не может воспроизвести, так что по сути она даже более широкая, чем существующие компьютеры.
И в реальности к проблеме разрешимости добавляется задача сложности решения, так что если решение задачи с N элементами требует N^2 действий, то для ряда практических проблем оно уже не годится (например, нахождение в множестве ближайших точек простым перебором)
Количество нейронов, равно как и операций, выполняемых мозгом за единицу времени, конечно, поэтому:
Если человек (даже если это только один человек) окажется способен сравнительно быстро решить задачу, наиболее удачное из известных детерминированных решений которой потребовало бы весьма большого количества операций, это будет лишним свидетельством в пользу недетерминированности мышления.
(Хотя, конечно, остаётся возможным, что решение, выполняемое мозгом, просто ещё не открыто).
Из очевидных примеров - задача распознавания образов, глазом выполняемая на "ура", в то время как компьютерное распознавание далеко от совершенства.
Хотя оно вполне развито, отрицать его было бы не лучшим, чем отрицать сознание у человека; и медленность процесса машинного распознавания объясняется ограниченным количеством операций.
У человека нейронов миллиарды.
Миллиард операций в секунду - это вполне прилично.
Остаётся, впрочем, неясно, какой сложности операции нейрон выполняет. Аналог нейрона в автоматической нейронной сети, выполненный на ПК, потребляет значительные ресурсы, но должно получится эффективнее использовать процессор, изначально предназначенный для реализации нейронной сети.
Википедия указывает, что "нейронная сеть" значительно превосходит для задач распознавания архитектуру фон Неймана (видимо, именно архитектуру?), но и она не должна выходить за пределы понятия машины Тьюринга.
Есть еще вариант (в модели мультивселенной Эверетта), в которой нейрон является квантовым объектом и срабатывает всеми возможными способами. Применительно к биологическому нейрону (а не к элементу нейронной сети) этот вариант мне кажется наиболее интересным.
Хмм.. это уже интереснее. Мне, впрочем, как-то Копенгагенская интерпретация (отрицающая мультивселенность) пока ближе.
А вариант, "тот, который срабатывает в нашей вселенной" выбирается всё равно случайным образом? Можно пояснить, в чём здесь для нас существенное (я уж не настаиваю на проверяемом) отличие?
Заставить машину работать
псевдослучайно мы можем.
Можно также попробовать сгенерировать "истинную случайность" из отдельной радиоактивной частицы, но я не очень уверен в том, что толком работать с "отдельной частицей" в реальности вообще возможно в данный момент.