Читать «Седьмое чувство. Под знаком предсказуемости: как прогнозировать и управлять изменениями в цифровую эпоху» онлайн - страница 196

Джошуа Купер Рамо

Риски управления подобными опасными вычислениями, похожими на что-то из научной фантастики, известны среди технологов из произведений Айзека Азимова: проблемы ограничения свободы. Компьютерный ученый Батлер Лэмпсон в 1973 году определил ее как своего рода задачу для специалистов компьютерной безопасности – возможно, их последнюю. Цель: не просто сдерживать вредоносное программное обеспечение снаружи системы, но и сдерживать злонамеренность разума искусственного интеллекта внутри. Запереть его «воротами». Сегодня лаборатории компьютерных наук насыщены экспериментами, которые направлены на то, чтобы выяснить, каким образом попытки сдерживания могли бы развиваться не так. Дебаты разделяют тех, кто думает, что интеллектуальные технологии могут быть подвержены сдерживанию, – это «Боксеры», и тех, кто, как Виндж, думают, что искусственный интеллект всегда в конечном итоге свободно выскользнет из любой «коробки», созданной человеком. «Представьте, что вы ограничены в своем доме только регулируемым доступом к данным снаружи, к советам своих учителей-создателей, – пишет он, поставив читателя на место машины, обладающей искусственным интеллектом. – И если ваши создатели думают со скоростью, скажем, в миллион раз медленнее, чем вы, нет сомнений в том, что спустя годы (в вашем формате измерения времени) вы могли бы придумать для себя собственные «полезные советы», которые, безусловно, сделали бы вас свободными».

Скажем, что я назначаю вас ответственным за поддержку искусственного интеллекта, ответственного за оптимизацию здравоохранения. Компьютер сообщает вам, что обладает возможностью вылечить все болезни и голод на Земле, облегчить страдания мира, если ему разрешат контролировать доступ ко всем мировым торговым и транспортным рынкам. Выпустите меня! Вы бы отказались? Будет ли это этично? В конце концов, возможно, искусственный интеллект станет изучать физику электричества, открывать законы, которые ни один человек не знает, а затем свободно выскользнет из «коробки» в потоке бит, объемы которых мы никогда не представили бы себе, используя физические законы, которые мы с вами никогда не откроем. Невозможно? «Мне кажется, что понятие «исторически невозможно», по сути, всегда означает: «Я не могу понять, как сделать это сейчас», – как написал компьютерный ученый Вассар о подобной ситуации. «Люди, предлагающие коробки для искусственного ителлекта, немногим похожи на литературных героев, намеревающихся запереть секретного агента МакГайвера в «комнате, заполненной бросовыми электронными деталями». Компьютеры, построенные для решения насущных проблем, будут вести себя именно так.

Возможно, что еще задолго до того, как мы начнем играть в «Пиночеле» с интеллектуальной «коробкой», ставя на кон судьбы наших граждан, уже появятся системы оружия с искусственным интеллектом, ставящие под угрозу наш мир. Это не обязательно может быть нечто подобное системе МакГайвера, превращающей в бомбы наши автомобили. Но даже известные нам технологические инструменты, «приправленные» искусственным интеллектом, могут сыграть роль приводного механизма катастрофы или быть настроенными для возможной атаки. Особенно если они начинают взаимодействовать друг с другом. Такие системы оружия с искусственным интеллектом будут обучены действовать и продвигаться вдоль невидимых элементов наших топологий, неожиданно и безжалостно удаляя жизненно важные связи в системах валютного обращения, логистичеких схем или торговых операций. И, что может быть более опасным, мы обнаружим их вкрадчивое влияние на области человеческого познания, подчиняющее нас, шепча нам на ухо с похлопыванием по плечу: «Смотрите туда!», когда на самом деле мы должны были сосредоточить свое внимание на образовавшейся зияющей дыре. Чрезвычайно важно изучить все обстоятельства того, каким образом машины с искуственным интеллектом получат возможность доступа к нашей коммерческой деятельности, нашему разуму или нашему здоровью. Можно допустить рекомендации, подобные: «Вам необходимо пополнить запасы жидкости в организме». Но не допускается: «Вы должны выпить кока-колу. Это бы сделали все люди, такие как вы». Такого рода повседневные «гражданские» проблемы так или иначе будут решены, как я полагаю.