Видео и аудио записи лекций
Материалы конференци Нейроинформатика-2023
Online-трансляция заседаний в Youtube. День 1
Материалы конференци Нейроинформатика-2021
Online-трансляция заседаний в Youtube. День 1
Online-трансляция заседаний в Youtube. День 2
Online-трансляция заседаний в Youtube. День 3
Online-трансляция заседаний в Youtube. День 4
Online-трансляция заседаний в Youtube. День 5
Online-трансляция мастер-классов в Youtube
Материалы Конгресса CAICS-2020
Пленарные доклады на CAICS-2020
Секционные заседания Нейроинформатики на CAICS-2020
Материалы Конференции Нейроинформатика
Видеозаписи пленарных докладов и лекций- A.Gorban. Robust topological grammars for unsupervised neural networks (2015)
- R.Stoop. The cochlea – a prototypical ancient neural network with a critical architecture (2015)
- M.Tsodyks. Understanding the capacity of information retrieval from long-term memory (2015)
- Yu.Timofeeva. Dendrites, neurons and resonances (2015)
- К. Анохин. Когнитом: гиперсетевая модель мозга (2015)
- A. Samsonovich. Functional capabilities of biologically inspired cognitive architectures (2015)
- Г. Осипов. Нейрофизиологические и психологические основания знаковой картины мира (2015)
- О. Кузнецов. Сложные сети и когнитивные науки (2015)
- Д. Сахаров. Другая нервная система (2015)
Alexander Gorban
Alexander N. Gorban is Professor of the University of Leicester, director of the Mathematical Modeling Centre. Alexander N. Gorban has contributed to many areas of fundamental and applied science, including statistical physics, non-equilibrium thermodynamics, machine learning and mathematical biology. Alexander N. Gorban is the author of about 20 books and 300 scientific publications. He has founded several scientific schools in the areas of physical and chemical kinetics, dynamical systems theory and artificial neural networks.
Robust topological grammars for unsupervised neural networks
We develop a family of robust algorithms for unsupervised learning. These algorithms aim to assimilate datasets of complex topologies and to approximate data by dendrite and cubic complexes. We develop the measure of the approximator complexity and find the balance between accuracy and complexity and to define the optimal approximations.Presentation (.pdf)
Ruedi Stoop
Ruedi (Rudolf) Stoop studied Mathematics and did a PhD in Computer-Aided Physics at Zürich University. At the University of Berne, he did a Habilitation in the field of Nonlinear Dynamics. As an Associate Professor, he lectures at the University of Berne, at the Swiss Federal Institute of Technology Zurich (ETHZ), at the University of Zürich (UNIZH) and at the University of Applied Sciences of Northwestern Switzerland. Currently, at the Institute of Neuroinformatics ETHZ/UNIZH, he leads a research group concentrating on the application of Nonlinear Dynamics and Statistical Mechanics to problems in Neuroscience.
The cochlea – a prototypical ancient neural network with a critical architecture
Using a biophysically close implementation of the mammalian hearing sensor, we have recently shown that the pitch we perceive for complex sounds is of purely physical, in contrast to a cortical, origin. From the physical principles that guidelined the evolution of our hearing sensor, we infer the nature of pitch as the embracing description the emergent complexity from the interaction of the nonlinear amplifiers present in the sensor, and use it to purposefully to tune the sensor towards the perception of sounds we want to listen to. We then show that the network of the amplifiers resident in the hearing sensor is critical, and observe how this changes, as we listen to a target sound.Presentation (.pdf)
Misha Tsodyks
Misha Tsodyks received his Ph.D. degree in Theoretical Physics from the Landau Institute of Theoretical Physics in Moscow. He then held various research positions in Moscow, Rome, Jerusalem and San Diego, before joining the Weizmann Institute of Science in Rehovot, Israel, in 1995, where he became a full professor in 2005. Misha Tsodyks works on a wide range of topics in computational neuroscience, such as attractor neural networks, place-related activity in hippocampus, mathematical models of short- and long-term synaptic plasticity in the neocortex, population activity and functional architecture in the primary visual cortex and perceptual learning in the human visual system.
Understanding the capacity of information retrieval from long-term memory
Human memory stores vast amounts of information. Yet retrieving this information is challenging when specific cues are lacking. Classical experiments on free recall of lists of randomly assembled words indicate non-trivial scaling laws for the number of recalled words for lists of increasing length. The fundamental factors that control retrieval capacity are not clear. Here we propose a simple associative model of retrieval where each recalled item triggers the recall of the next item based on the similarity between their long-term neuronal representations. The model predicts retrieval capacity laws that are compatible with the psychological literature.Presentation (.pdf)
Yulia Timofeeva
Yu. Timofeeva is an Associate Professor in the Department of Computer Science ( Computational Biology and Bioimaging Group ) and the Centre for Complexity Science at Warwick. Her research interests lie in the general area of Mathematical Biology and Theoretical/Computational Neuroscience. In particular, she focused on the application of principles from biophysics, nonlinear dynamics and numerical analysis to the modeling and study of cellular systems.
Dendrites, neurons and resonances
Gap junctions, also referred to as electrical synapses, are expressed along the entire central nervous system and are important in mediating various brain rhythms in both normal and pathological states. These connections can form between the dendritic trees of individual cells. To obtain insight into the modulatory role of gap junctions in tuning networks of resonant dendritic trees, I will present two methods for calculating the response function of a network of gap-junction coupled neurons. These methods will then be used to construct compact closed form solutions for a two-cell network of spatially extended neurons which will allow the study of the role of location and strength of the gap junction on network dynamics.Presentation (.pdf)
Константин Владимирович Анохин
Константин Владимирович Анохин (род. 3 октября 1957) — российский учёный, нейробиолог, профессор, член-корреспондент РАН и РАМН. Руководитель отдела нейронаук НИЦ «Курчатовский институт». Лауреат премий Ленинского комсомола, имени Де Вида Нидерландской академии наук, Президиума Российской академии медицинских наук и Национальной премии «Человек года» в номинации «Потенциал и перспектива в науке».
Окончил лечебный факультет 1-го Московского медицинского института им. И. М. Сеченова в 1980 г. В 1984 закончил аспирантуру при НИИ нормальной физиологии им. П. К. Анохина РАМН, защитив кандидатскую диссертацию «Роль холецистокинина в механизмах пищевого насыщения». В 1992 состоялась защита докторской диссертации на тему «Ранние гены в механизмах обучения и памяти». Получил звание профессора. В 2002 был избран членом-корреспондентом РАМН по специальности «нейробиология», а в 2008 — членом-корреспондентом РАН по специальности «нанобиотехнология».
Когнитом: гиперсетевая модель мозга
Несмотря на впечатляющие успехи нейронауки, природа высших функций мозга все еще ускользает от нашего удовлетворительного понимания. Эта ситуация, известная как «провал в объяснении» (explanatory gap), требует поиска новых объяснительных моделей и принципов. В настоящем докладе будет предложена модель организации мозга как когнитивной гиперсети – К-сети. Вершинами К-сети (когнитома), являются КОГи (когнитивные группы), представляющие собой подмножества вершин нижележащей N-сети (коннектома), объединенные единым когнитивным опытом. Ребра между k-вершинами в когнитоме формируются как совокупности ребер между образующими их подмножествами n-вершин в коннектоме. В понятиях алгебраической топологии КОГ представляет собой реляционный симплекс или гиперсимплекс, основанием которого служит симплекс из вершин опорной N-сети, одновременно выступающий вершиной с новым качеством в К-сети более высокого уровня. Формализм гиперсетей обобщает сети и гиперграфы, давая аппарат, необходимый для отображения феноменов эмерджентности в многоуровневых системах, и позволяя моделировать гораздо более сложные структуры, чем сети и гиперграфы. В докладе будут рассмотрены некоторые нетривиальные следствия двусторонних отношений N- и K-сетей, лежащие в основе гиперсетевой теории мозга (ГCТМ).Presentation (.pdf)
Alexei Samsonovich
Alexei V. Samsonovich is a Research Assistant Professor at Krasnow Institute for Advanced Study at George Mason University. He is the Chair of the annual conference on Biologically Inspired Cognitive Architectures (BICA) since 2008 and the Editor-in-Chief of the Elsevier journal BICA since 2012. He holds a M.Sc. in Theoretical Physics from the Moscow Institute of Physics and Technology and a Ph.D. in Applied Mathematics from the University of Arizona, where together with Bruce McNaughton and Lynn Nadel he developed the well-known continuous-attractor theory of hippocampal spatial maps and the mental-state framework for cognitive modeling. His current research focuses on BICA, including spiking neural network cognitive modeling, semantic cognitive mapping and metacognitive architectures.
Functional capabilities of biologically inspired cognitive architectures
General functional aspects of human cognition can be described at a computational level and replicated in a machine based on principles that do not require detailed modeling of neurons and brain structures. These are, primarily, basic principles of perception, reasoning, decision making and action control, formulated in terms of symbolic models like cognitive architectures. The key principles are those that support social-emotional intelligence, narrative intelligence, metareasoning, autonomous goal reasoning, semantic mapping, human-level teachability and creativity. Creation of a machine analog of the human mind based on these principles and its acceptance as a human-equivalent character will lead to a technological breakthrough with an impact on all aspects of human life.Presentation (.pdf)
Геннадий Семенович Осипов
Президент Российской ассоциации искусственного интеллекта (РАИИ) Член Научного Совета по методологии искусственного интеллекта Российской академии наук (НСМИИ РАН) д.ф.-м.н., проф., ИСА РАН, Москва, академик РАЕН Область научных интересов: информатика, информационные технологии, искусственный интеллект, динамические интеллектуальные системы, управление знаниями, информационные системы в медицине. Один из авторов первого отечественного Справочника Искусственный интеллект (в 3-х книгах), изданного в 1990 г. Заместитель директора по научной работе Института системного анализа РАН. Направление исследований: "Искусственный интеллект, когнитивные исследования и принятие решений" Постоянный член Европейского координационного комитета по искусственному интеллекту (ECCAI) от России Член Ученого совета Российской академии информационных технологий и автоматизации.
Нейрофизиологические и психологические основания знаковой картины мира
Рассматривается модель картины мира субъекта деятельности, которая, с одной стороны, опирается на данные нейрофизиологических исследований, с другой, - на известные психологические феномены. Рассматриваются процессы формирования образов, значений и личностных смыслов, операции обобщения, агглютинации, интроспекции. Строятся модели таких функций сознания как целеполагание и синтез поведения, объясняется существование различных типов картин мира субъектов поведения.Presentation (.pdf)
Олег Петрович Кузнецов
Олег Петрович Кузнецов — ученый-исследователь и крупный специалист в области искусственного интеллекта и логического управления, заведующий лабораторией Института проблем управления РАН, профессор, доктор технических наук, председатель Научного совета Российской ассоциации искусственного интеллекта, член редколлегий журналов «Автоматика и телемеханика», «Проблемы управления», «Искусственный интеллект и принятие решений».
Родился 28 марта 1936 г. в Москве. В 1958 г. окончил Московский государственный университет им. М. В. Ломоносова. В 1965 г. защитил кандидатскую диссертацию в Институте автоматики и телемеханики АН СССР. В 1983 г. защитил докторскую диссертацию в Институте проблем управления АН СССР. С 1958 г. по настоящее время работает в Институте проблем управления РАН (до 1969 г. Институт автоматики и телемеханики АН СССР), пройдя путь от младшего научного сотрудника до ведущего научного сотрудника и заведующего лабораторией.
Сложные сети и когнитивные науки
Сложные сети – это сети с большим числом узлов и связей между ними. Примеры: Интернет, социальные сети, сети авиалиний, нервные сети головного мозга. В докладе излагаются основные понятия теории сложных сетей, описываются важные классы сложных сетей: безмасштабные сети и сети тесного мира. Рассматриваются процессы распространения активности в сетях. Отмечается важная роль теории сложных сетей в исследованиях нервных сетей головного мозга.Presentation (.pdf)
Дмитрий Антонович Сахаров
Заведующий лабораторией Института биологии развития РАН; родился 1 ноября 1930 г.; окончил МГУ в 1953 г., доктор биологических наук; академик РАЕН; основные направления научной деятельности: элементарные механизмы поведения, нейробиология беспозвоночных, нейроны, нейротрансмиттеры; член правления Международного общества нейробиологии беспозвоночных; иностранный член Sосiеty fоr Nеurоsсiеnсеs (США-Канада); почетный член Венгерского физиологического общества; член Международной организации по изучению мозга; член редколлегий журналов "Сеllulаr аnd Моlесulаr Nеurоbiоlоgy", "Nеurоbiоlоgy", член редакционного совета "Журнала высшей нервной деятельности"; лауреат премии им. Л. А. Орбели.
Другая нервная система
Биология мозга переживает период смены парадигм. Электрическая рефлекторная доктрина, утвердившаяся в 19 столетии и доминирующая поныне, безнадёжно противоречит эмпирическим знаниям о том, как устроены и функционируют естественные нервные системы. Альтернативой техногенным метафорам мозга (мозг как телефонная станция, голографическое устройство, компьютер, итп) может служить универсальная идея Т. Добжанского: "Nothing in biology makes sense еxcept in the light of evolution". В приложении к мозгу эта идея реализуема в рамках представления, согласно которому в основе нервных функций лежат гетерохимические механизмы, унаследованные от донервных регуляторных систем (Х.С. Коштоянц и его школа). В этом свете будут рассмотрены современные результаты нейронаук.Presentation (.ppt)