Читать «Неизбежно (12 технологических трендов, которые определяют наше будущее)» онлайн - страница 32

Кевин Келли

Это открытие дало шанс реализовать новые возможности для сетей, между узлами которых могут существовать сотни миллионов связей. У традиционных процессоров уходило несколько недель на вычисление всех каскадных возможностей в нейронной сети со 100 миллионами параметров. Эндрю Ын обнаружил, что кластер, состоящий из графических процессоров, мог справиться с аналогичной задачей за сутки. Сегодня нейронные сети, действующие на основе графических процессоров, повсеместно используются компаниями, занятыми в области облачных технологий, например компания Facebook использует их для определения ваших друзей на фотографиях, а Netflix – для адекватных рекомендаций пользователям, которых больше 50 миллионов.

2. Большие данные (big data)

Любой интеллект нуждается в обучении. Человеческому мозгу, генетически настроенному на категоризацию объектов, нужно получить десяток примеров (что происходит в детском возрасте), прежде чем он сможет отличать кошек от собак. В еще большей степени это относится к искусственному интеллекту. Даже отлично запрограммированному компьютеру требуется сыграть хотя бы тысячу партий в шахматы, прежде чем он начнет показывать хороший результат. Прорыв в области развития искусственного интеллекта частично связан с лавинообразным ростом объема информации о современном мире, так как именно она становится основой для его обучения. Огромные базы данных, самоотслеживание, cookie-файлы, присутствие в интернете, возможность хранения терабайтов данных, десятилетия ответов на поисковые запросы, интернет-энциклопедия «Википедия» и вся цифровая виртуальная реальность стали средствами обучения для искусственного интеллекта. Эндрю Ын говорит: «Развитие искусственного интеллекта сродни строительству космического корабля. Нужен мощный двигатель и много топлива. Ракетный двигатель – это алгоритм обучения, а топливо – это огромный объем данных, который требуется для работы этого алгоритма».

3. Более эффективные алгоритмы

Цифровые нейронные сети были изобретены в 1950-х годах, но у специалистов в области теории вычислительных машин и систем ушло несколько десятилетий, чтобы понять, как «приручить» астрономически огромные комбинаторные взаимоотношения между миллионами – или сотней миллионов – нейронов. Задача состояла в том, чтобы организовать нейронные сети в слои. Возьмем, например, относительно простую задачу распознавания того, что лицо – это лицо. Когда группа элементов в нейронной сети узнаёт определенный образец, например изображение глаза, этот результат («Это глаз!») передается на уровень выше, где уже может произойти совмещение двух глаз, и этот кусок значимой информации передастся на следующий уровень иерархической структуры, где он соотносится со следующим образцом, например носом. Для узнавания лица человека может потребоваться несколько миллионов этих узлов (каждый из которых производит вычисления, использующиеся соседними узлами), организованных в многоуровневую систему, вплоть до 15 уровней. В 2006 году известный своими исследованиями в области искусственных нейросетей британский информатик Джеффри Хинтон, работавший на тот момент в Университете Торонто, внес ключевую поправку в этот метод, который он назвал «глубинное обучение». Ему удалось математически оптимизировать результаты на каждом уровне, чтобы процесс обучения продвигался быстрее по мере перехода от одного слоя к другому. Несколько лет спустя алгоритмы глубинного обучения невероятно ускорились, когда их перенесли на графические процессоры. Сам по себе код глубинного обучения недостаточен для генерации сложного процесса логического мышления, тем не менее он представляет собой основной компонент всех действующих искусственных интеллектов, включая суперкомпьютер Watson от IBM, искусственный разум от DeepMind, поисковую систему Google и алгоритмы работы, которые использует Facebook.