Читать «Могут ли машины мыслить?» онлайн - страница 20

Алан Тьюринг

7. Возражение, основанное на непрерывности действия нервной системы

Нет сомнения в том, что нервная система не является машиной с дискретными состояниями. Небольшая ошибка в информации относительно силы нервного импульса, действующего на нейрон, может привести к значительному изменению импульса на выходе. Исходя из этого, можно было бы как будто предполагать, что нельзя имитировать поведение нервной системы с помощью машины с дискретными состояниями.

То, что машина с дискретными состояниями должна отличаться от машины непрерывного действия, это, конечно, справедливо. Однако если мы будем придерживаться условий «игры в имитацию», то задающий вопросы не сможет использовать это различие. Данную ситуацию можно сделать яснее, рассмотрев другую, более простую, машину непрерывного действия. Для этого особенно хорошо подходит дифференциальный анализатор. (Дифференциальный анализатор – это машина определенного рода, не относящаяся к типу машин с дискретными состояниями, применяемая для вычислений некоторых видов. ) Некоторые из дифференциальных анализаторов выдают ответы в напечатанном виде и поэтому пригодны для игры в имитацию. Цифровая вычислительная машина не может предсказать, какие в точности ответы даст дифференциальный анализатор, решая некоторую задачу, но зато она может сама находить ответы правильного характера на ту же задачу. Например, если требуется найти значение числа ПИ (в действительности приблизительно равное 3,1416), то цифровая вычислительная машина могла бы осуществлять случайный выбор его значения из множества чисел – 3,12; 3,13; 3,14; 3,15; 3,16 – имеющих соответственно такие (например) вероятности выбора: 0,05; 0,15; 0,55; 0,18; 0,06. При этих условиях задающему вопросы будет очень трудно отличить дифференциальный анализатор от цифровой вычислительной машины.

8. Возражение с точки зрения неформальности поведения человека

Невозможно выработать правила, предписывающие, что именно должен делать человек во всех случаях, при всевозможных обстоятельствах. Например, пусть имеется правило, согласно которому человеку следует остановиться, если включен красный свет светофора, и продолжать движение, если свет зеленый; но как быть, если по ошибке оба световых сигнала появятся одновременно? По-видимому, безопаснее всего остановиться. Однако это решение в дальнейшем может быть источником каких-либо новых затруднений. Рассуждая так, мы приходим к заключению, что любая попытка сформулировать правила действия, предусматривающие любой возможный случай, обречена на провал, даже если ограничиться областью транспортной сигнализации. Со всем этим я согласен.

Основываясь на сказанном, доказывают, что мы не можем быть машинами. Я попытаюсь воспроизвести это доказательство, хотя боюсь, что вряд ли сумею сделать это хорошо. Выглядит оно приблизительно так: «Если бы каждый человек обладал определенной совокупностью правил действия, следуя которым он живет, он был бы не чем иным, как машиной. Однако таких правил не существует. Следовательно, человек не может быть машиной». В этом рассуждении бросается в глаза ошибка, связанная с распределенностью термина. Я не думаю, чтобы когда-нибудь это возражение излагали именно в такой форме, однако я убежден, что рассуждение этого рода все же находит применение. Однако оно основано на смешении терминов «правила действия» [rules of conduct]и «законы поведения» [laws of behaviour], что затемняет вопрос. Под «правилами действия» я понимаю такие предписания, как «Остановитесь, если увидите красный свет»; такие предписания могут определять наши действия и осознаваться нами. Под «законами поведения» я понимаю управляющие человеком естественные законы, например: «Если человека ущипнуть, он вскрикнет». Если в приведенном выше рассуждении вместо «правил действия, которыми человек руководствуется в своей жизни» подставить «законы поведения, управляющие жизнью человека», то ошибка, связанная с нераспределенностью термина, оказывается вполне устранимой.