ИИ и значки цифровой техники

«Что такое искусственный интеллект? И как работает искусственный интеллект»

     Развитие интернет технологий помогают в развитии ИИ (искусственного интеллекта) и помогут понять что такое человеческий интеллект. Определение искусственного интеллекта не просто сложно; это невозможно, потому что мы не понимаем человеческий интеллект. Как это ни парадоксально, успехи в понимании как работает искусственный интеллект (ИИ) помогут определить, что такое человеческий интеллект, а затем перейти к всеобщему интеллекту.

     Такие компании, как Google и Facebook, вкладывают огромные средства в ИИ и уже используют их в своих продуктах. Но Google и Facebook - это только начало: в течение следующего десятилетия мы увидим, что ИИ постоянно вставляется в один продукт за другим. Мы будем общаться с ботами, и не понимать, что это машины, а не люди. Мы будем полагаться на автомобили для планирования маршрутов и реагирования на дорожные опасности. Хорошо, что в ближайшие десятилетия некоторые функции ИИ будут включены в каждое приложение, которое мы используем, и мы не сможем ничего достичь, не используя эти приложения.

     Учитывая, что наше будущее неизбежно будет связано с ИИ, крайне важно, чтобы мы спросили: «На каком этапе мы находимся? Каково состояние ИИ? И в каком направлении мы двигаемся?

Содержание:

  1. Возможности и ограничения ИИ сегодня или как работает искусственный интеллект?
  2. Как перейти к всеобщему интеллекту?
  3. Обучаться или не обучаться?
  4. Значение "интеллект"
  5. Помощники или актеры?
  6. Почему возник всплеск интереса к тому как работает искусственный интеллект?

     Описания ИИ охватывают несколько осей: Сила (насколько это разумно?), Широта (решает определенную проблему), Обучение (как ИИ учится?), Возможности (какие наши проблемы ИИ решает?) и Автономию (это технологии ИИ действующие сами по себе?). Каждая из этих осей является спектром, и каждая точка в этом многомерном пространстве представляет собой другой способ понять цели и возможности системы ИИ.

     Если посмотреть на результаты последних 20 лет и понять, что мы сделали чрезвычайно мощные программы. Deep Blue обыграл Гарри Каспарова в шахматах; Watson победил лучших чемпионов-вопросов и ответов; AlphaGo обыграл Ли Седола, возможно, лучшего игрока в мире. Но все эти успехи ограничены. Deep Blue, Watson и AlphaGo были высокоспециализированными одноцелевыми машинами, которые очень хорошо справлялись с единичными задачами. Deep Blue и Watson не могут играть в Go, и AlphaGo не может играть в шахматы или Jeopardy, даже на базовом уровне. Их интеллект очень узкий и не может быть расширен. Большая работа посвящена использованию Watson для таких приложений, как медицинская диагностика, но это по-прежнему принципиально машина для вопросов и ответов, которая должна быть настроена для определенной темы. Deep Blue имеет множество специализированных знаний о шахматной стратегии. AlphaGo был построен с более общей архитектурой, но многие знания вручную вставлялись в код. Я не хочу недооценивать их достижения, но важно понять, чего они не могут делать.

     Мы еще не создали общий искусственный интеллект, который может решить множество различных проблем. У нас еще нет машины, которая может слушать записи речи людей в течение года или двух и начать самой говорить. В то время как AlphaGo «научился» играть Go, анализируя тысячи игр, а затем, играя тысячи вариантов против себя, но это программное обеспечение не может использоваться для овладения шахматами. Такой же общий подход? Наши лучшие текущие усилия далеки от общего интеллекта, который достаточно узок, чтобы учиться без присмотра выбирать то, что он хочет изучить, будь то игра в настольные игры или проектирование плат для ПК.

Как перейти к всеобщему интеллекту?

     Как мы переходим от узкого, специфичного для определенной темы, интеллекта до более общего интеллекта? Под «общим интеллектом» мы не обязательно подразумеваем человеческий интеллект; но нам нужны машины, которые могут решать различные задачи, не будучи запрограммированными с помощью специфичных знаний. Мы хотим, чтобы машины могли понимать человеческие суждения и решения. Это не обязательно означает, что системы ИИ будут реализовывать такие понятия, как творчество, интуиция или инстинкт, которые не могут иметь цифровых аналогов. Общий интеллект будет иметь возможность следить за множеством занятий и адаптироваться к непредвиденным ситуациям. И общий ИИ, несомненно, будет реализовывать такие понятия, как «справедливость» мы уже говорим о влиянии ИИ на психологическую систему.

     Автономный автомобиль демонстрирует проблемы, с которыми мы сталкиваемся. Чтобы автономно управлять автомобилем, необходимо интегрировать распознавание образов с другими возможностями, включая рассуждения, планирование и память. Он должен распознавать дорожную обстановку, чтобы мог своевременно реагировать на препятствия и уличные знаки; он должен, как понимать правила вождения, так и решать такие проблемы, как избегать препятствий; он должен планировать маршрут от своего текущего местоположения до пункта назначения, принимая во внимание загруженность дорог и другие проблемы. Он должен делать все это многократно, постоянно обновляя свои решения. Однако, несмотря на то, что автомобиль с самообслуживанием включает почти все ИИ, он не обладает гибкостью, которую мы ожидаем от общей системы ИИ. Вы не ожидали, что автомобиль с самообслуживанием сможет поговорить или выложить свой путь. Передача обучения или получение результатов из одной области и применение их в другой области очень сложно. Возможно, вы могли бы перестроить многие программные компоненты, но это только указывает на то, чего не хватает: наши текущие ИИ предоставляют узкие решения конкретных проблем; они не являются общими решателями проблем. Вы можете добавить узкие ИИ до бесконечности (у автомобиля может быть бот, который говорит о том, куда идти, и дает советы по посещению ресторана, играет с вами в шахматы, чтобы вам не было скучно), но куча узких интеллектов никогда не будет складываться в общий интеллект. Общий интеллект это не количество способностей, а интеграция между этими способностями.

     В то время как решения, подобные нейронным сетям, были первоначально разработаны для имитации процессов человеческого мозга, разработчики ИИ отказались от идеи имитации биологического мозга. Мы не знаем, как работает мозг. Нейронные сети полезны в вычислительной области, но они не имитируют человеческую мысль. В искусственном интеллекте современный подход. Питер Норвиг и Стюарт Расселл пишут, что искусственный полет удалось осуществить, когда братья Райт и другие перестали имитировать полет птиц и начали изучать аэродинамику. Аналогичным образом, чтобы добиться прогресса, разработчикам ИИ не нужно сосредоточиваться на подражании биологическим процессам мозга и вместо этого попытаться понять проблемы, которые решает мозг. Люди используют любое количество методов для изучения, независимо от того, что может происходить на биологическом уровне. То же самое можно сказать и об общем искусственном интеллекте: он будет использовать сопоставление с образцом (например, AlphaGo), он будет использовать системы на основе правил (например, Watson), он будет использовать исчерпывающие методики поиска (например, Deep Blue). Ни один из этих методов не касается непосредственно человеческого интеллекта. То, что кажется людям лучше, чем любой компьютер, - это строить модели своего мира и действовать на этих моделях.

     Следующий шаг разработки общего интеллекта - это супер развитие и понимание как работает искусственный интеллект. Будем ли мы ожидать, что система супер развития будет обладать такими качествами, как творчество и инициатива? Учитывая, что у нас есть проблемы с пониманием человеческого творчества, трудно думать о механическом творчестве как полезной концепции. Go эксперты описали некоторые шаги AlphaGo как «креативные»; однако они вышли из тех же процессов и шаблонов, что и все остальные, а не смотрели на игру по-другому. Повторное применение одних и тех же алгоритмов может привести к результатам, которые люди находят неожиданными или непредвиденными, или просто то, что мы называем «творчеством».

     Если мы сможем создать «общий интеллект», легко предположить, что он может быстро стать в тысячи раз более мощным, чем человеческий разум. Или, точнее: либо общий интеллект будет значительно медленнее, чем человеческая мысль, и будет сложно ускорить его либо с помощью аппаратного или программного обеспечения; или это ускорится быстро, благодаря массивным параллельным вычислениям и улучшениям в оборудовании. Мы перейдем от многоядерных графических процессоров к триллионам ядер на тысячах чипов, а потоки данных будут поступать из миллиардов датчиков. В первом случае, когда ускорения медленные, общий интеллект может быть не таким интересным. Во втором случае разгон будет очень интенсивным и очень быстрым.

Обучаться или не обучаться ?

     Разработчики AlphaGo заявили, что используют гораздо более общий подход к ИИ, чем Deep Blue: они создали систему, которая имела минимальное знание стратегии Go, остальное узнала, наблюдая игры Go. Это указывает на следующее большое направление: можем ли мы получить от контролируемого обучения, где машина обучается намеченным данным, к неконтролируемому обучению, где машина узнает для себя, как группировать и структурировать данные?

     В статье на Facebook Янн ЛеКун говорит : «Нам нужно решить проблему надзора, прежде чем мы сможем даже подумать о том, чтобы добраться до истинного ИИ». Чтобы классифицировать фотографии, система ИИ получает миллионы фотографий, которые были правильно классифицированы; после обучения этим классификациям ему предоставляется еще один набор отмеченных фотографий, чтобы определить, может ли он правильно пометить тестовый набор. Что может сделать машина без маркировки? Можете ли вы узнать, что важно на фотографии, без метаданных, говорящих: «Это птица, это самолет, это цветок»? Может ли машина обнаруживать структуру путем наблюдения с гораздо меньшими данными, что могут сделать люди и животные?

     И люди, и животные могут формировать модели и абстракции из относительно небольших данных: для нас не требуется миллионы изображений, чтобы, например, распознать новый вид птиц или найти путь вокруг нового города. Предсказывая будущие кадры видео, над которыми сейчас работают исследователи, потребуется системе ИИ, чтобы понять, как работает мир. Возможно, ли разработать систему, которая может реагировать на совершенно новые ситуации, такие как автомобиль, скользящий непредсказуемо на льду? Можно ли построить автомобиль, который может ездить без карты? Люди могут решить эти проблемы, хотя они не обязательно хороши в этом. Неконтролируемое обучение указывает на проблемы, которые не могут быть просто решены лучше, быстрее аппаратными средствами или разработчиками, работающими с текущими библиотеками.

     Существуют подходы к обучению, которые представляют собой точку между контролируемым и неконтролируемым занятием. В обучении подкрепления система получает некоторую ценность, которая представляет собой новое решение проблемы. Может ли робот бегать по полю без заранее определенного маршрута? Может ли автомобиль ездить по городу без карты? Новые решения проблемы могут быть возвращены в систему и использованы для максимизации вероятности успеха. ( OpenAI Gym - это многообещающая основа для занятия обучением).

     С одной стороны, контролируемое обучение означает воспроизведение набора тегов, который, по существу, является распознаванием образов и подвержен переобучению. С другой стороны, полностью неконтролируемое обучение означает научиться интуитивно, рассуждать о ситуации и требует алгоритмических прорывов. Не полностью контролируемое обучение (с минимальными тегами) или обучение углублению (путем последовательного принятия решений) представляют собой подходы между этими крайностями. Посмотрим, как далеко они могут нас завести.

Значение "интеллект"

     То, что мы подразумеваем под «интеллектом» и пониманием как работает искусственный интеллект, является фундаментальным вопросом. В радиолокационной системе с 2014 года Бо Кронин отлично справился с суммированием многих определений ИИ . То, что мы ожидаем от искусственного интеллекта, критически зависит от того, что мы хотим от ИИ. Обсуждения ИИ почти всегда начинаются с теста Тьюринга . Тьюринг предположил, что люди будут взаимодействовать с компьютером через чат-подобную модель: он взял разговор с компьютером. Это предположение накладывает ограничения на то, что мы ожидаем от компьютера: мы не ожидаем, что он будет управлять автомобилем или собирать схемы, например. Это также преднамеренно неоднозначный тест. Ответы компьютера могут быть уклончивыми или просто неправильными, безошибочно правильными, но не в этом смысле. Человеческие интеллекты также уклончивы и неверны. Мы вряд ли допустим ошибку ИИ, которая была безошибочно правильной для человека.

     Если предположить, что ИИ должен быть воплощен в аппаратном обеспечении, способном к движению, таком как робот или автономный автомобиль, мы получаем другой набор критериев. Мы просим, чтобы компьютер выполнял плохо определенную задачу (например, вождение в магазине) под самоконтролем. Мы уже можем создавать системы ИИ, которые могут лучше планировать маршрут и управлять, чем большинство людей. Одна авария, в которой произошла ошибка одного из автономных автомобилей Google, вызвана тем, что алгоритмы были изменены, чтобы больше походить на человека, и рисковать тем, что система ИИ обычно не принимала.

     Есть много трудных проблем вождения, которые самоходные автомобили не решали: например, ехать по горной дороге в метель. Независимо от того, воплощена ли система ИИ в автомобиле, беспилотном самолете или человекоподобном роботе, проблемы, с которыми он столкнется, будут по существу похожи: как действовать в безопасных и комфортных условиях будет легко; как действовать в опасных ситуациях будет намного сложнее. Люди не очень хорошо справляются с этими задачами; но в то время как Тьюринг ожидает, что ИИ в разговоре будет уклончивым или даже ответить на вопросы неправильно, неопределенные или неправильные решения при движении по шоссе не приемлемы.

     ИИ, которые могут принять физические критерии, заставляют нас думать о роботическом поведении. Какая этика управляет автономными роботами? Законы о робототехнике? Если мы думаем, что робот никогда не должен убивать или ранить человека, вооруженные беспилотники доказали обратное. В то время как стереотипный вопрос «если авария неизбежна, на кого автокатастрофу направить на ребенка или бабушку?» - это поддельная этика, есть варианты более серьезные. К примеру: беспилотный автомобиль повернет в толпу, чтобы избежать несчастного случая, который может убить его пассажира? Легко ответить на вопрос абстрактно, но трудно представить, как люди будут покупать автомобиль, который пожертвует ими, чтобы не травмировать окружающих. Я сомневаюсь, что роботы должны будут ответить на этот вопрос, но это, безусловно, будет обсуждаться на совещаниях брендов Ford, GM, Toyota и Tesla.

     Мы можем более просто определить как работает искусственный интеллект (ИИ), отказавшись от тонкостей диалоговых систем или автономных роботизированных систем и заявив, что ИИ - это только создание систем, которые отвечают на вопросы и решают проблемы. Системы, которые могут отвечать на вопросы и рассуждать о сложной логике, - это «экспертные системы», которые мы строим уже несколько лет, наиболее недавно воплощенные в Watson (AlphaGo решает другую проблему). Однако, как указывает Боу Кронин, решение проблем, которые люди находят интеллектуально сложными, относительно легко; гораздо труднее решить проблемы, которые люди находят легкими. Немногие трехлетние дети могут играть в Go. Все трехлетние дети могут узнать своих родителей и без существенного набора помеченных изображений.

     То, что мы подразумеваем под «интеллектом», сильно зависит от того, что мы хотим от этого интеллекта. Не существует единого определения, адекватного всем нашим целям. Без четко определенных целей, которые говорят нам о том, чего мы пытаемся достичь, и измерить, достигли ли мы этого, переход от узкого ИИ к общему ИИ не будет возможным.

Помощники или актеры?

     Охват ИИ сосредоточен на автономных системах, машинах, которые действуют самостоятельно. Не без оснований: это забавное, сексуальное и несколько страшное лицо ИИ. Легко наблюдать AlphaGo, с человеческим лицом, чтобы проследить его шаги, и фантазировать о будущем, в котором доминируют машины. Но для ИИ существует нечто большее, чем автономные устройства, которые делают людей устаревшими. Где реальная ценность, искусственный интеллект или увеличение интеллекта? Этот вопрос задавался с первых попыток ИИ, и подробно изучается Джоном Маркоффом (John Markoff in "Machines of Loving Grace"). Мы не хотим, чтобы система ИИ принимала решения; мы хотим зарезервировать решение для себя. Мы рассчитываем, чтобы ИИ увеличивал наш интеллект, предоставляя нам информацию, предсказывая последствия любого хода действий и предлагая рекомендации, но оставляя решения людям. Будущее, в котором искусственный интеллект находится на нашем служении, дополняет наш интеллект, а не отменяет его, гораздо более вероятен, чем будущее, в котором мы являемся слугами чрезмерного ИИ.

     GPS- навигационная система - отличный пример системы ИИ, которая увеличивает человеческий интеллект. Учитывая хорошую карту, большинство людей могут перемещаться из точки А в точку Б, хотя наши способности оставляют желать лучшего, особенно если мы находимся на незнакомой территории. Нанесение наилучшего маршрута между двумя пунктами является трудной проблемой, особенно если у вас возникли трудности, например: плохие дорожные условия. Но, за исключением автономных автомобилей, мы никогда не подключали навигационный движок к рулевому колесу. GPS - это исключительно вспомогательная технология: она дает рекомендации, а не команды. Всякий раз, когда вы слышите, как GPS говорит «пересчет маршрута», человек принял решение (или ошибку), которое игнорировало рекомендацию GPS, и GPS адаптируется.

     За последние несколько лет мы видели множество приложений, которые квалифицируются как ИИ в том или ином смысле. Почти все, что подпадает под рубрику «машинное обучение», квалифицируется как искусственный интеллект: действительно, «машинное обучение» было названо более успешными частями ИИ, когда дисциплина получила дурную славу. Вам не нужно строить что-то с человеческим голосом, как Amazon’s Alexa, чтобы быть ИИ. Механизм рекомендаций Amazon, безусловно, ИИ. Так же есть веб-приложение, такое как Stitchfix, которое дополняет выбор, сделанный экспертами моды, с выбором, сделанным механизмом рекомендаций. Мы привыкли (и часто раздражаемся) чат-ботами, которые обрабатывают запросы обслуживания клиентов, более или менее точно. Вероятно, вы в конечном итоге поговорите с человеком, но секрет заключается в том, чтобы использовать бот-чат, чтобы избавиться от обычных рутинных вопросов. Нет смысла требовать от человека расшифровки вашего адреса, вашего номера телефона и другой стандартной информации: компьютер может сделать это, по крайней мере, точно, если не больше.

     Следующее поколение ассистентов будет (и уже) полуавтономным. Несколько лет назад Ларри Пейдж сказал, что компьютер Star Trek был идеальной поисковой системой: это был компьютер, который понял людей, уже усвоил всю доступную информацию и мог ответить на вопросы, прежде чем их даже спросили. Если вы использовали Google Now, вы, вероятно, были удивлены в первый раз, когда вам сказали, чтобы вы шли раньше на встречу, потому что движение на пути плотное. Для этого требуется просмотр нескольких разных наборов данных: ваше текущее местоположение, местоположение вашего назначения (возможно, в вашем календаре или в списке контактов), данные сопоставления Google, текущие условия движения и даже хронологические данные о предполагаемых структурах движения. Цель не отвечает на вопрос; он предоставляет помощь, прежде чем пользователи знают, что в ней нуждаются.

девушка думает о искусственном интеллекте

Почему возник всплеск интереса как работает искусственный интеллект?

     Почему ИИ в настоящее время является такой горячей темой, после того, как в течение нескольких десятилетий «слава ИИ» оказалась дурной? Конечно, ИИ был в новостях вскоре после Deep Blue и после Watson. Рост ИИ зависел от огромных успехов в компьютерной технике.

     Довольно утомительно прославлять огромные достижения в области производительности и технологии хранения данных за 30 лет с начала возникновения ИИ (о которой Википедия прослеживает до 1984 года ). Но это неотъемлемая часть истории, особенно если вы видели стойки машин, которые составляли IBM Watson . По сообщениям, AlphaGo работает на 1920 процессорах и 280 GPU ; машина, которая победила Ли Седола, возможно, была еще больше, и использовала специальное оборудование, разработанное Google для создания нейронных сетей. Даже если алгоритмы ИИ слишком медленны, чтобы быть продуктивными на типичном ноутбуке, легко и относительно недорого выделить серьезные вычислительные мощности на облачных платформах, таких как AWS, GCE и Azure. И машинное обучение было включено, в частности, возможностью хранить огромные объемы данных. В 1985 году гигабайты были редкими и весили сотни фунтов; теперь гигабайты являются обычными и недорогими.

     В дополнение к возможности хранения и обработки данных мы теперь имеем возможность генерировать данные. В 80-е годы большинство фотографий было аналоговым. Теперь это все цифровое, и многие из них хранятся в Интернете, в таких сервисах, как Flickr, Google Фото, Apple Photos, Facebook и т. д. Многие онлайн-фотографии уже отмечены некоторым описательным текстом, что делает их отличным набором данных для обучения системам искусственного интеллекта. Многие из наших разговоров также доступны через Facebook, Twitter и многие чат-сервисы. Как и наши истории покупок. Таким образом, у нас (или, точнее, Google, Apple, Yahoo, Facebook, Amazon и др.) Есть данные, необходимые для обучения системам ИИ.

     Мы также добились значительных успехов в алгоритмах. Нейронные сети не особенно новы, но «глубокое обучение» объединяет серию сетей с обратной связью, поэтому сеть автоматически перестраивается. Глубокое обучение, таким образом, пытается решить одну из самых сложных проблем человека в компьютерном обучении: изучение оптимальных представлений и функций из данных. Обработка большого количества данных проста, но функция обучения является скорее искусством, чем наукой. Глубокое обучение автоматизирует некоторые из этих искусств.

     Мало того, что мы добились прогресса в алгоритмах, алгоритмы реализованы в широко доступных библиотеках, таких как Caffe , TensorFlow , Theano , Scikit-Learn , MXNet , CNTK и другие. ИИ не ограничивается исследователями CS в академических условиях; все чаще кто-то может принять участие, как показал Пит Уорден . Вам не нужно знать, как реализовать сложный алгоритм и сделать его достаточно разумным на вашем оборудовании. Вам просто нужно знать, как установить библиотеку и данные обучения тегов. Подобно тому, как сама революция ПК происходила, когда компьютеры выходили из машинных комнат и становились доступными для широкой публики, тот же процесс развития порождает революцию в ИИ. Поскольку люди из многих слоев общества и среды экспериментируют с ИИ, мы увидим новые виды приложений. Некоторые будут казаться научной фантастикой (хотя самоходные автомобили казались научной фантастикой всего несколько лет назад); конечно, будут новые приложения, которые мы даже не можем себе представить. Развитие интернет технологий поможет понять как работает искусственный интеллект и со временем перейти к всеобщему интеллекту.