Читать «Седьмое чувство. Под знаком предсказуемости: как прогнозировать и управлять изменениями в цифровую эпоху» онлайн - страница 195

Джошуа Купер Рамо

Возможно, это связано с тем, как полагают ученые, что наш соревновательный инстинкт приглушен, когда мы взаимодействуем с машиной. Исследователи обнаружили, что существует возможность достижения компромисса иным способом. Печальные фильмы, военные призывы, хард-рок – каждое из перечисленного может повлиять на эмоции игроков и изменить результат. Повышенный уровень тестостерона препятствует достижению компромисса. Игроки же, окруженные семейными фотографиями или ведущие игру перед зеркалом, проявляют теплое великодушие.

Оптимизировать расходы здравоохранения. Куда могут в действительности привести подобные алгоритмические команды? Искусственный интеллект, оптимизирующий медико-санитарную помощь, безусловно, обнаружит в итоге, что наибольшим риском для здоровья человека является человеческое поведение: курение, длительное времяпрепровождение на диване, вождение автомобиля. Мог искусственный интеллект начать поиск шансов «улучшить» условия, в которых мы живем, чтобы «согнуть» нас, как те многочисленные скрепки, в то, что наиболее востребовано? Прорыв от сканирования информационных данных наличия донорской печени к закрытию алкалоидных растений может показаться довольно коротким для рациональной бездушной машины. А если такая машина действительно сможет «думать»? Виндж мог поспорить: тогда она быстро бы пришла к выводу, что сдерживания ее функций ее создателями ограничивали то, что ей было предложено сделать. В какой момент искусственный интеллект задумается о том, каким образом можно было бы избежать этих ограничений. Это выглядело бы так, как будто бы машина Deep Blue была бы запрограммирована на планирование своего собственного побега из тюрьмы. Чем больше люди будут стремиться подавлять умные машины, тем больше они будут втягиваться в борьбу за сдерживание чего-то еще более мощного, с чем прежде не сталкивались. «Но машина никогда не сможет делать то, на что она не была запрограммирована!» – могли бы вы надеяться. В самом деле? Оглянитесь вокруг: сети, которые опутывают нас сейчас, часто оказываются свободны от очевидного контроля.

Риски управления подобными опасными вычислениями, похожими на что-то из научной фантастики, известны среди технологов из произведений Айзека Азимова: проблемы ограничения свободы. Компьютерный ученый Батлер Лэмпсон в 1973 году определил ее как своего рода задачу для специалистов компьютерной безопасности – возможно, их последнюю. Цель: не просто сдерживать вредоносное программное обеспечение снаружи системы, но и сдерживать злонамеренность разума искусственного интеллекта внутри. Запереть его «воротами». Сегодня лаборатории компьютерных наук насыщены экспериментами, которые направлены на то, чтобы выяснить, каким образом попытки сдерживания могли бы развиваться не так. Дебаты разделяют тех, кто думает, что интеллектуальные технологии могут быть подвержены сдерживанию, – это «Боксеры», и тех, кто, как Виндж, думают, что искусственный интеллект всегда в конечном итоге свободно выскользнет из любой «коробки», созданной человеком. «Представьте, что вы ограничены в своем доме только регулируемым доступом к данным снаружи, к советам своих учителей-создателей, – пишет он, поставив читателя на место машины, обладающей искусственным интеллектом. – И если ваши создатели думают со скоростью, скажем, в миллион раз медленнее, чем вы, нет сомнений в том, что спустя годы (в вашем формате измерения времени) вы могли бы придумать для себя собственные «полезные советы», которые, безусловно, сделали бы вас свободными».