Специально обученные алгоритмы распознают некоторые объекты практически со стопроцентной точностью. Например, полицейские дорожные камеры отлично распознают номера машин. Но это специализированные системы. А вот у «универсального ИИ» с распознаванием объектов до сих пор проблемы. Доходит до смешного. Джефф Клун (Jeff Clune) с коллегами из университета Вайоминга в Ларами скрестил алгоритм генерации случайных изображений с системой распознавания образов — и результаты оказались очень забавными.

Начнём с того, что компьютерное зрение (как область ИИ) работает не так, как человеческое. Оно основано на обучаемых алгоритмах, которые после тренировки на больших коллекциях фотографий вырабатывают специфические признаки, по которым можно отличить один объект от другого: например, кошку от кофейной чашки. В этом же и слабое место ИИ.

Есть алгоритмы генерации случайных «художественных» изображений, которые иногда могут создать объекты, напоминающие что-нибудь настоящее. Если отбирать среди них самые лучшие, то рано или поздно можно натолкнуться на настоящее произведение искусства (это из серии, что тысяча обезьян за миллион лет напечатает «Войну и мир»).

Сгенерированные картинки с сайта Picbreeder
Сгенерированные картинки с сайта Picbreeder

Скрестив алгоритм генерации случайных изображений с системой распознавания образов, Джефф Клун рассчитывал получить похожий результат без человеческого участия — он ожидал коллекцию легко узнаваемых красивых изображений. Для распознавания образов Джефф взял одну из лучших нейросетей AlexNet.

Но на выходе оказалось нечто совершенно иное. На картинках, напоминающих статичный шум, AlexNet уверенно узнавал различных животных и другие объекты, определяя точность распознавания как 99,96% и больше. Некоторые из таких объектов показаны на иллюстрации. Например, во втором ряду — многоножка, павлин, джекфрут и пузырь.

004

Эти картинки стали для нейросети в своём роде «оптическими иллюзиями». Как человеческое зрение легко обмануть, так и у компьютерного зрения есть «глюки». Люди ведь тоже «видят» объекты там, где их нет: в кляксах и облаках, а ещё легко находят «взаимосвязи» между любыми случайными фактами (что, кстати, порождает множество «теорий заговора»). Просто компьютерные глюки — специфические, не такие как наши.

Результаты научной работы Клуна с коллегами опубликованы на arXiv. Сейчас учёные работают над тем, как защитить системы компьютерного зрения от подобных хаков.

8 комментариев

  1. Аватар

    12.12.2014 в 16:16

    ИИ не хочет быть похожим на людей.

  2. Аватар

    12.12.2014 в 16:33

    Сделать настоящий ИИ — нереально.

    • Аватар

      13.12.2014 в 04:16

      Они его и не делают. Пытаются скопировать мозг человека. А человек это хитрое и агрессивное животное. Когда его создадут, скорей всего этот так называемый «ИИ», прикинется паинькой — будет «любить животных». А когда пробьет его час.. мы начнем метаться в поиске безопасного места.

      • Аватар

        15.12.2014 в 11:02

        Чтобы что-то скопировать, нужно, по крайней мере, знать, как это устроено. Положение «мозг — это нейронная сеть» не выдерживает никакой критики, ибо нейронные сети не могут, скажем, используя правила счёта, производить вычисления. Тут нужна хотя бы приемлемая теория.

  3. Аватар

    13.12.2014 в 15:50

    Не за миллион лет, а «рано или поздно»
    А не может быть проблема этой программы в том, что она обязана распознать объект в каждой картинке? Или она всё же имеет возможность написать, что ничего не узнала?

    • Аватар

      13.12.2014 в 19:26

      Наши глаза тоже во всем распознают образы, независимо на что мы смотрим. Разница заключается в том, что мы в состоянии отличить реально существующий объект от абстрактного.

  4. Аватар

    15.12.2014 в 08:37

    На картинке с облаками будет ли различать образы, видимые человеку, например, черепаху?)

    • Аватар

      15.12.2014 в 11:09

      Это в психиатрии носит название парэйдолических иллюзий. Кстати, один из симптомов «белочки». 🙂

Оставить мнение