управление цифровыми устройствами с планшета

Основы искусственного интеллекта и создание баз данных знаний

     Мир полон данных: неструктурированная информация, которая не находится в хороших, упорядоченных базах данных. Информация, существующая на сайтах, спрятанная в столы, имеющаяся на фотографиях и в фильмах, недоступна для машинного интеллекта или любого другого интеллекта.

Такие проекты, как diffbot и deepdive, используют обучение, чтобы найти информацию в неструктурированных данных - будь то научные статьи или сканирование многих веб-сайтов. После создания базы данных, используя основы искусственного интеллекта, в этой базе данных можно получить доступ к более обычным инструментам, таким как API, SQL-запросы или обычные приложения.

     Базы знаний и графики уже используются во многих интеллектуальных приложениях, включая Google Knowledge Graph (графические знания) — семантическая технология и база знаний, используемая Google для повышения качества своей поисковой системы с семантическо-розыскной информацией, собранной из различных источников. По мере того, как мы переходим к диалоговым приложениям, способность обнаруживать различные данные и проводить структурирование этих данных становится еще более результативной. Эффективное использование различных данных станет ключом к переходу от сценариев и узко заданных чат-приложений к приложениям, которые могут принимать произвольный вопрос и возвращать ответ пользователю. Возможно, мы не увидим такого приложения, как «понимание» вопроса, но такие приложения будут в центре будущих вспомогательных технологий. И они будут полагаться на базы данных знаний, которые были очищены и структурированы машиной. Объем данных, которые будут задействованы, будут превышать возможности людей.

Результаты развития ИИ

     В отличие от раннего развития ИИ, когда данные были ограничены, а компьютеры были медленными, сейчас мы видим успешные системы ИИ повсюду. Google Translate далеко не так хорош, как переводчик, но часто дает вам удобный перевод. Системы распознавания речи также являются обычным явлением и удивительно точны; год назад Google утверждал, что телефон Android может правильно понять 92% вопросов, которые он задал. Учитывая, что компьютер может правильно превратить вопрос в текст, следующий шаг - на вопрос дать ответ используя основы искусственного интеллекта.

     Точно так же распознавание изображений и обработка изображений стали обычным явлением. Системы компьютерного распознавания могут идентифицировать лица с точностью, которая была немыслима несколько лет назад. Конечно, разграничение проблемы правильно играет огромную роль в этом успехе: Facebook может идентифицировать лица на ваших фотографиях, потому что предполагается, что люди на ваших фотографиях, вероятно, будут вашими друзьями. Компьютерное зрение будет центральным для многих применений ИИ. Видение, очевидно, имеет решающее значение для автономных транспортных средств; это также важно для наблюдения беспилотных аппаратов.

     Глубокое обучение, основы искусственного интеллекта и нейронные сети привлекли большое внимание в прошлом году: они позволили добиться прогресса в компьютерном зрении, распознавании речи и в других областях. Тем не менее, почти все, что подпадает под категорию машинного обучения, - это искусственный интеллект: алгоритмы классификации и кластеризации, различные типы решений, алгоритмы развития (генетики), векторные машины, иерархическая временная память и многое другое. Эти методы могут использоваться сами по себе или в сочетании с другими. IBM Watson является хорошим примером обучения общего взаимодействия: это система на основе правил, которые включают множество других алгоритмов, в зависимости от проблемы, которую она решает. Правила в значительной степени разработаны вручную, а другие алгоритмы должны быть тщательно настроены для получения хороших результатов.

     Такие системы, как Watson, требуют огромного количества ручной настройки, и в лучшем случае являются ступенью для дальнейшего развития интеллекта. Любой общий ИИ и большинство узких ИИ, вероятно, объединят многие алгоритмы, а не будут использовать один. Но настройка, требуемая для получения хороших результатов, является основным ограничением. Демис Хассабис, лидер команды AlphaGo, говорит, что тюнинг «почти как форма искусства». Действительно ли это «искусственный интеллект», если получение хороших результатов требует многолетней работы, и только несколько сотен специалистов способны выполнять эту работу? Создание такой системы, как Watson, - это наука, но для этого также требуется много искусства. Кроме того, необходимость ручной оптимизации предполагает, что созданный таким образом ИИ по сути своей узкий, предназначенные для решения одной проблемы. Очень сложно представить себе оптимизацию «общего интеллекта», который может работать над любой проблемой. Если вы оптимизируете, вы почти наверняка оптимизируете что-то для определенного приложения.

     Усовершенствования в ИИ зависят от лучших алгоритмов или лучшего оборудования? Ответ на этот вопрос - «оба», если вопрос даже имеет смысл. Несмотря на то, что тактовые частоты зашли в тупик, наша способность ставить все больше на чип не застопорилась: 280 GPU AlphaGo могут легко означать 200 000 ядер. Более важное что мы видели - это значительное улучшение математических библиотек и инструментов для использования графических процессоров. Мы также можем увидеть использование ASIC и FPGA (специализированная интегральная схема и программируемые пользователем вентильные массивы) в будущих движках ИИ. В свою очередь, ASIC и FPGA будут иметь решающее значение для внедрения ИИ в аппаратные системы, многие из которых (например: автономные транспортные средства) должны будут работать в режиме реального времени.

     Но даже если оборудование будет лучше, нам все равно потребуются алгоритмы, которые могут быть распределены между тысячами или миллионами узлов. Нам понадобятся алгоритмы, которые могут перепрограммировать FPGA на лету, адаптировать аппаратное обеспечение к проблемам, которые они решают. MapReduce стал популярным для анализа данных, поскольку он предложил способ распараллеливать большой класс проблем. Параллелизм, очевидно, работает для ИИ, но каковы его пределы? Отличительной особенностью большинства параллельных алгоритмов является то, что вам нужна стадия, которая собирает частичные результаты и генерирует единственный результат. AlphaGo может рассматривать тысячи альтернатив при вычислении своего следующего шага; но в какой-то момент ему нужно взглянуть на все альтернативы, оценить, что лучше, и представить один результат. AlphaGo может использовать 280 графических процессоров, а если их будет 280 000? В конце концов, самые большие системы ИИ, которые мы создали до сих пор, составляют небольшую часть размера мозга крыс, не говоря уже о человеческом мозге. Как насчет алгоритмов, которые не поддаются параллелизму, а также нейронные сети? Как вы применяете обратную связь в системах, где каждый элемент системы использует другой подход к проблеме? Такие вопросы, скорее всего, приведут к исследованию основы искусственного интеллекта в ближайшем будущем.

     Выделение больше (и быстрее) аппаратного обеспечения на алгоритмы ИИ, скорее всего, поможет нам улучшить игры Go, Chess и Jeopardy и сможет классифицировать изображения лучше и быстрее. Но это улучшение проблем, которые мы в настоящее время можем решить. Будет ли больше вычислительной мощности заставлять нас контролировать машинное обучение? Это приведет нас от узкой задачи к общей задачи? Это еще предстоит выяснить. Неконтролируемое обучение - сложная проблема, и неясно, что ее можно решить, просто выделив на нее больше аппаратных средств. Мы все еще ищем «главный алгоритм», который может не существовать.

Этика и фьючерсы применения ИИ

     Легко напугаться разговорами о сверхчеловеческом интеллекте. И, по мнению некоторых, пришло время решить, что мы хотим, чтобы наши машины делали, пока не стало слишком поздно. Хотя эта задача может быть упрощена, очень сложно думать об ограничении устройств, которые мы не можем построить, и чьи возможности мы не можем себе представить сейчас и, возможно, никогда не поймем в будущем. Трудно сказать «нет», потому что я не знаю ни одной технологии, которая не была изобретена, потому что люди заранее подумали об этом. В разное время в истории люди боялись многих технологий, которые сейчас являются обычным явлением: в какой-то момент многие думали, что движение более 60 миль в час будет смертельным. Сократ возражал против написания, потому что считал, что это приведет к забывчивости: представьте, что он думал о нашей технологии!

     Но мы можем думать о будущем ИИ и о том, как мы будем разрабатывать машины, которые будут нам помогать.

Вот несколько советов:

     Большинство страхов сверхразумного ИИ на самом деле страх бояться машины, которую мы не знаем или не понимаем, это страх перед природой человека в худшем случае в сочетании с неограниченной властью. Наши страхи - это, по сути, человеческие страхи: опасения всемогущих машин, действующих как люди.

     Это не значит очернить наши страхи, потому что мы видели, как машинное обучение учится у нас. Известный Tay от Microsoft был прекрасным примером разговорного робота ИИ, который «научился» расизму и фанатизму у людей, с которыми он разговаривал в Интернете. Классификация изображений Google, которая идентифицировала негритянскую пару как «горилл», была результатом плохого тестирования и набора для обучения, в котором не было достаточно правильно помеченных изображений чернокожих людей. Машины учатся быть расистскими так же, как и люди, потому что мы учим их, таким образом, преднамеренно или случайно. Это проблема человека, и она разрешима. Мы должны быть более осторожны в том, что и как учит наш искусственный интеллект. Мы должны быть более осторожными в отношении того, что находится в наших наборах обучения, и мы можем отфильтровать, какие ответы мы считаем приемлемыми. Ничего из этого не сложно; это просто нужно сделать. Что сложнее в нынешнем обществе, так это достижение консенсуса о том, что расизм и ненависть не в порядке.

     Это проблема человеческих ценностей, а не машинного интеллекта. Мы можем строить машины, которые отражают наши ценности: мы уже делаем это. Являются ли они теми значениями, которые мы хотим отразить? В последнее время рассматривается вопрос о необходимости проведения исследований о том, как проводить аудит алгоритмов, чтобы «обеспечить справедливое отношение к людям». Поскольку мы переход от «простых данных» к ИИ, необходимость проверки наших алгоритмов и обеспечения того, чтобы они отражали ценности, которые мы поддерживаем, будут только увеличиваться.

     Крайне важно, чтобы исследования в области искусственного интеллекта были открытыми и доступными для общественности. Потому, что мы считаем, что общественность будет менее «бояться» исследований, которые происходят открыто. И существует большая озабоченность в отношении исследований, которые идут за закрытыми дверями. Действительно, неэтичные исследования показывают, что лучший способ создать здоровую экосистему ИИ - публиковать идеи создания программ для машин. Исследования продолжатся за закрытыми дверями; было бы наивно думать, что военные исследования и разведывательные службы не работают над искусственным интеллектом. Но мы будем заложниками этих исследований, если не будет исследований ИИ в публичной сфере. Независимо от того, является ли такая организация, как Google или Facebook, «за закрытыми дверями» или «в общественном мнении», это дискуссия, заслуживающая внимания. Необходимо продвигать цифровой интеллект таким образом, чтобы принести пользу человечеству в целом используя основы искусственного интеллекта.

     Также важно, чтобы исследования были открытыми и в общественной сфере, потому что истоки исследования часто определяют его применение. Хорошим примером является ядерная энергия. Можно построить безопасные, эффективные ядерные реакторы, которые работают на Тории. Но ториевые реакторы никогда не строились, потому что они не помогают создавать бомбы, а исследования ядерной энергетики находятся под контролем оборонного ведомства. Реактор, который не образует плутоний в используемых количествах? Зачем кому-то это нужно? Опять же, наивно думать, что военные и национальные разведывательные службы не будут проводить свои исследования ИИ. Но если исследование ИИ станет единственной областью военных, у нас будут отличные самонаводящиеся дроны; если исследование ИИ станет единственной областью национальной разведки, у нас будут отличные системы для тайного прослушивания и записи разговоров. Наши фантазии будут ограничены тем, что еще может сделать ИИ для нас, и нам будет трудно представить себе приложения для ИИ, кроме убийственных беспилотных летательных аппаратов и бдительного уха "Большого Брата". Мы никогда не сможем разработать интеллектуальные медицинские системы или помощника робота-медсестры.

     Если мы хотим, чтобы ИИ служил человечеству, он должен быть разработан, открыто как часть более широкого сообщества исследователей ИИ и как часть более широкого общественного обсуждения наших целей. Мы должны быть осторожны, чтобы не построить собственный худший кошмар; но нам нужно понять, что кошмар действительно более мощная версия нас самих.

Основы искусственного интеллекта - что в будущем?

     Марк Цукерберг недавно сказал, что ИИ будет лучше, чем люди, в большинстве основных задач через 5-10 лет. Он может быть прав, но также ясно, что он говорит об узком интеллекте: конкретные задачи, такие как распознавание речи, классификация изображений и, конечно же, игра. Он продолжает говорить: «Это не значит, что компьютеры будут думать...» В зависимости от того, с кем вы разговариваете, реальный общий интеллект составляет от 10 до 50 лет. Учитывая сложность прогнозирования будущего технологии интернета, лучший ответ - «более 10 лет» и, возможно, намного больше.

     Когда будет достигнут человеческий уровень, машинным интеллектом (HLMI) применяя основы искусственного интеллекта?

     Недавний опрос экспертов предполагает, что HLMI будет происходить (с вероятностью 50%) когда-то между 2040 и 2050 годами .

     Итак, когда мы доберемся туда, если когда-нибудь доберемся? Несколько лет назад Джейсон Хаггинс (@hugs) сделал предварительное замечание о роботах. Роботы, по его словам, всегда в будущем. Время от времени бит роботов прерывается и становится частью настоящего; но когда это происходит, они больше не считаются робототехникой. В 1920-х годах мы бы рассмотрели современную посудомоечную машину как супер-интеллектуального робота; теперь это просто посудомоечная машина.

     То же самое неизбежно произойдет в развитии основ искусственного интеллекта. Я избегал делать различие между машинным обучением и ИИ. «Машинное обучение» - это термин, который был применен к идеям исследований ИИ раньше, когда ИИ был дискредитирован. Теперь многие из этих идей являются обычным явлением. Мы не думаем дважды о рекомендациях Amazon или GPS-навигационных системах, мы принимаем это как должное. Мы можем обнаружить, что Facebook и способность Google распознавать фотографии ужасно, но мы не думаем об ИИ, когда видим это. Все серьезные шахматисты тренируются против шахматных программ , так и начинающие игроки Go, после успеха AlphaGo практика против компьютера, безусловно, будет распространяться на мастеров. Это основы искусственного интеллекта, которые уже стали реальностью и частью нашего мира. При этом ИИ превратился в ИА (увеличение интеллекта): автономная технология, которая превзошла человеческие способности, и стала вспомогательной.

     Сможем ли мы когда-нибудь указать на что-то и сказать «Да, это искусственный интеллект?» Да, конечно; мы можем это сделать сейчас. Что еще более важно, так это то, что мы неизбежно будем окружены ИИ, даже до того, как мы это узнаем. Мы берем сантехнику как должное; мы принимаем электроэнергию как должное; наши дети воспринимают потоковое звучание как должное. Мы примем основы искусственного интеллекта как должное, даже если он станет большей частью нашей жизни.

Майк Лукидес и Бен Лорицы (Mike Loukides and Ben Lorica) (перевод Никола Фитин)