Читать «Вычислительное мышление: Метод решения сложных задач» онлайн - страница 51
Питер Макоуэн
Следует ли опасаться ботов?
Чат-боты появились как эксперимент в программировании и психологии. Сейчас это — приложения, которые находят самое разное практическое применение. Например, персонажи, с которыми можно встречаться в виртуальных мирах, игрушки, которые хотят быть вашими друзьями, замена человеку в контакт-центрах и даже личные ассистенты, такие как дворецкий Джарвис у супергероя Железного человека.
Однако у чат-ботов есть и темная сторона. Порой они имитируют людей по гораздо менее достойным причинам. Рост социальных медиа привел к тому, что присутствие чат-ботов ощущается по всему миру. Эксперименты показали, что в соцсетях роботов часто признают за людей и они собирают тысячи подписчиков. Бывали даже случаи, когда политические активисты использовали чат-ботов, чтобы повлиять на политические взгляды людей с внешним эффектом естественного изменения общественного мнения. Это явление получило название Но если с помощью роботов удается изменить политические убеждения, значит, можно повлиять и на результаты выборов. Такие явления подрывают демократию. И это лишь одна из многих юридических и этических проблем, связанных с законным использованием ИИ и роботов, которые до сих пор не исследованы. Особенно важны процессы, развивающиеся в интернете. Мы склонны думать, что интернет населен людьми, но опрос 2014 г. показал, что около 60% трафика в нем создают роботы.
Интересно, что бы сказала об этом «Элиза»?
Понимает ли вас виртуальный собеседник?
Входим в китайскую комнату
Системы, построенные на «ЕСЛИ — ТО», как наш чат-бот, могут выполнять сложные операции, которые имитируют деятельность человеческого мозга в конкретных обстоятельствах. Конечно же, настоящий вызов здесь — создать ИИ или робота, который справится со всем, с чем справляется человек, а не будет выбирать единицы информации, что полегче. Способность видеть, слышать и чувствовать мир с высокой скоростью и точностью, общаться письменно и устно, влюбляться, писать музыкальные хиты или быстро принимать разумные решения, когда значительная часть информации неизвестна или неточна, — все это позволяет нам выживать в нашем сложном мире. Кроме того, мы, люди, понимаем, чтó мы делаем, в отличие от многих ИИ, для которых это является проблемой. ИИ следует правилам, но не понимает.
Философ Джон Сёрл показал эту проблему в мысленном эксперименте под названием Представьте, что вы совсем не знаете китайского языка — не пишете и не говорите на нем, и оказались в запертой комнате, где есть книги с правилами перевода с китайского языка. Через щель в двери вы получаете сообщения от носителей китайского. Вы ищете в книгах нужные правила, касающиеся написанного, действуете в соответствии с ними, а потом просовываете результат обратно в щель. Вы поступаете в точности как виртуальный собеседник, который следует правилам о том, что нужно «говорить» в ответ на полученные сообщения. Носители языка за дверью получают осмысленные ответы на свои вопросы, написанные на китайском. Значит, сама комната или что-то внутри нее понимает китайский, не так ли? Но вы знаете, что всего лишь следовали сложному набору правил, которые дают результат. Вы не понимаете ни ответы, ни вопросы. Так «понимает» ли китайский комната и находящийся в ней человек? Или она просто симулирует способность понимать по-китайски? Сёрл называет первый вариант а второй — Большинство людей сказало бы, что комната ничего не понимает. Все понимание имеется у людей, которые придумали правила. Этот мысленный эксперимент и поднятые им важные вопросы о природе понимания вызвали массу споров в среде философов и программистов. Попробуем переиначить его на свой лад.