Читать «Неизбежно (12 технологических трендов, которые определяют наше будущее)» онлайн - страница 31

Кевин Келли

Сейчас самое время выразить обоснованный скептицизм. На протяжении почти 60 лет исследователи искусственного разума предсказывали скорое его появление, и тем не менее вплоть до недавнего времени это оставалось таким же нереальным, как и раньше. Даже появился специальный термин для описания скромных результатов исследований и еще более скудного финансирования этой области: «зима искусственного интеллекта». Неужели что-то изменилось с тех пор?

Да. Три недавних научно-технических прорыва сделали потенциально возможным появление искусственного интеллекта.

1. Дешевые параллельные вычисления

Мышление – по природе параллельный процесс. Миллиарды нейронов головного мозга одновременно активируются для создания синхронных волн вычислительного процесса. Для формирования нейронной сети – основной архитектуры программного обеспечения искусственного интеллекта – также требуется параллельное протекание многих процессов. Каждый узел этой сети приблизительно имитирует нейронную клетку человеческого мозга, взаимодействующую с соседними клетками для правильной интерпретации получаемых сигналов. Для распознавания произнесенного слова программа должна услышать все фонемы так, как они соотносятся друг с другом. Для распознавания изображения программа должна увидеть все точки так, как они соотносятся с соседними. В обоих случаях эти задачи реализуются параллельно. Однако до недавнего времени обычный процессор вычислительной машины мог одномоментно выполнять только одну задачу.

Ситуация начала меняться чуть больше десяти лет назад, когда для повышенных требований видеоигр, в которых миллионы пикселей одного изображения должны многократно вычисляться за одну секунду, был разработан графический процессор (GPU).

Для этого потребовалась специализированная микросхема для параллельной вычислительной обработки, которая была добавлена в качестве приложения к материнской плате РС. Графический процессор доказал свою эффективность, и популярность видеоигр взлетела. К 2005 году графические процессоры производились в таких количествах и стали такими дешевыми, что фактически превратились в товар массового потребления. В 2009 году Эндрю Ын и команда ученых Стэнфордского университета поняли, что микросхемы графического процессора могут обеспечить параллельную работу нейронных сетей.