Пленарное заседание

Нейроинформатика - 2019



Понедельник, 7 октября                    11:20 – 13:00
Ауд. 4.18 (5.17)

Председатель: ДУНИН-БАРКОВСКИЙ Виталий Львович, д.ф.-м.н.

1. ГОРБАНЬ А. Н.
University of Leicester, Great Britain; Нижегородский государственный университет им. Н.И. Лобачевского
Ошибки искусственного интеллекта, их исправление и революция простоты в нейронауках

Системы искусственного интеллекта (ИИ) ошибаются и всегда будут ошибаться. Будущее развитие ИИ и его приложений критически зависит от нашей способности обнаруживать и исправлять эти ошибки. Операции коррекции должны быть простыми и быстрыми, несмотря на сложность систем ИИ. Несмотря на очевидный и широко распространенный консенсус относительно сложности мозга, в 1970-х годах в нейробиологии появились ростки революции одиночных нейронов. Они принесли с собой множество неожиданных открытий, в том числе бабушкины или концептуальные клетки и разреженное кодирование информации в мозге. В машинном обучении в течение длительного времени знаменитое "проклятие размерности" казалось неразрешимой проблемой. Тем не менее, идея благословения размерности становится постепенно все более популярной. Ансамбли невзаимодействующих или слабовзаимодействующих простых единиц оказываются эффективным инструментом решения принципиально многомерных и, казалось бы, непонятных задач. Этот подход особенно полезен для одношагового (не итеративного) исправления ошибок в больших системах искусственного интеллекта. Эти революции простоты в эпоху сложности имеют глубокие фундаментальные причины, основанные на геометрии многомерных пространств данных. Теорема Гиббса о эквивалентности ансамблей с дальнейшими обобщениями показывает, что данные в многомерных пространствах сосредоточены вблизи оболочек меньшей размерности. Новые теоремы стохастической отделимости раскрывают тонкую структуру облаков данных. Мы анализируем биологические, физические и математические задачи, возникающие в ходе решения фундаментальной проблемы: как с помощью простых инструментов организовать надежное и быстрое обучение многомерного мозга в многомерном мире данных? Лекция основана на работе Gorban, A. N., Makarov, V. A., & Tyukin, I. Y. (2019). The unreasonable effectiveness of small neural ensembles in high-dimensional brain. Physics of Life Reviews, https://doi.org/10.1016/j.plrev.2018.09.005

2. ЛЕМПИЦКИЙ В. С.
Сколковский институт науки и технологий
Фотореалистичные нейросетевые аватары

Будут представлены результаты моделирования внешнего вида людей с использованием генеративных сверточных нейронных сетей, которые получены недавно в лаборатории компании Samsung

Понедельник, 7 октября                    14:00 – 16:00
Ауд. 4.18 (5.17)

Председатель: ШУМСКИЙ Сергей Александрович, к.ф.-м.н.

3. ВИЛЬЗИТЕР Ю. В.
Государственный научно-исследовательский институт авиационных систем, Москва
Глубокие нейронные сети и глубокая оптимизация

Технологии на основе глубоких нейронных сетей (ГНС) являются сегодня одними из наиболее перспективных и прорывных средств создания перспективных изделий не только в части СТЗ. «Глубокие» технологии развиваются, и фокус их применения смещается от задач обработки и анализа информации к задачам управления и оптимизации. Поэтому влияние ГНС и «глубоких» технологий на развитие перспективной техники будет намного более обширным, нежели влияние только «интеллектуальных» технологий. Разрабатываемая ФГУП «ГосНИИАС» унифицированная программная платформа (Платформа-ГНС) должна стать основным средством автоматизированного проектирования алгоритмов на основе ГНС для авиационных приложений (ЛА и БЛА). Предлагаем использовать ее и для других областей применения.

4. КАЗАНОВИЧ Я. Б.
Институт математических проблем биологии РАН – филиал Института прикладной математики им. М.В. Келдыша Российской академии наук, Московская область, Пущино
Моделирование когнитивных функций мозга использованием осцилляторных нейронных сетей

Описывается осцилляторная нейронная сеть, представляющая собой систему обобщенных фазовых осцилляторов с центральным элементом. Показано, что в этой системе может быть реализован принцип "победитель получает все" в терминах конкуренции периферических осцилляторов за синхронизацию с центральным осциллятором. Приводятся несколько примеров, иллюстрирующих возможности использования данной системы для реализации различных когнитивных функций, таких как последовательный выбор объектов на изображении, зрительный поиск и слежение за несколькими движущимися объектами.

Вторник, 8 октября                    10:30 – 11:30
Ауд. 4.18 (5.17)

Председатель: ДОЛЕНКО Сергей Анатольевич, к.ф.-м.н.

5. ДОРОГОВ А. Ю.
Санкт-Петербургский государственный электротехнический университет «ЛЭТИ»
Регулярные преобразования с архитектурой глубоких нейронных сетей

. Рассматривается класс многослойных перестраиваемых преобразований с регулярной архитектурой глубоких нейронных сетей. Преобразования данного класса обладают уникальной возможностью аналитического представления топологии реализующей сети, что позволяет разработать алгоритмы обучения, абсолютно-сходящиеся за конечное число шагов. В работе показано, что регулярная сеть глубокого обучения, может быть построена как структурное расширение архитектуры алгоритмов быстрых преобразований дополнительными плоскостями с управляемой коммутацией. Доказывается, что любое линейное преобразование с факторизуемой размерностью может быть реализовано подходящей многослойной регулярной сетью глубокого обучения данного класса. Применительно к задаче распознавания образов, следствием этого вывода является кардинальное возрастание числа распознаваемых классов вплоть до размерности выходного вектора реализующей сети. Более того многослойность обеспечивает возможность построения быстрых конвейерных вычислителей для любых линейных преобразований, включая преобразования Карунена-Лоэва. В работе рассмотрены примеры применения регулярных сетей глубокого обучения для распознавания одномерных сигналов, изображений и многомерных данных. Показано, что в поточном варианте линейные регулярные глубокие сети могут быть использованы для реализации квантовых алгоритмов и измерительных схем.

Четверг, 10 октября                    10:30 – 11:20
Ауд. 4.18 (5.17)

Председатель: ЕЖОВ Александр Александрович, к.ф.-м.н.

6. ЧУНЬЦЗИН С.
Huawei
Эффективный дизайн нейронных сетей для терминальных вычислений

Предметом доклада являются конвейер и фреймворк для эффективного проектирования нейронных сетей. Мы обсудим основные проблемы вывода нейронных сетей на устройствах и представим текущие исследования в Huawei в этой области, включая упрощение и квантование, проектирование ячеек, дистилляцию и применение AutoML для решения этих задач.

Российская нейросетевая ассоциация Российская академия наук Министерство образования и науки Российской Федерации МФТИ НИЯУ МИФИ НИИСИ РАН МАИ Институт перспективных исследований мозга МГУ
AIRI iLabs Приоритет 2030