+7(495)506-57-36, +7(968)575-10-99
sovnauka@mail.ru
Опубликовать статью
Контакты
ISSN 2079-4401
Учредитель:
ООО «Законные решения»
Адрес редакции: 123242, Москва, ул. Большая Грузинская, д. 14.
Статей на сайте: 429
Главная
О журнале
О нас
Учредитель
Редакционная коллегия
Политика журнала
Этика научных публикаций
Порядок рецензирования статей
Авторам
Правила и порядок публикации
Правила оформления статей
Правила оформления аннотаций
Правила оформления библиографического списка
Требования к структуре статьи
Права на произведениеЗадать вопрос авторуКонтакты
ЖУРНАЛ
Сентябрь, 2016
2017: 1
2016: 1, 2, 3, 4
2015: 1, 2, 3, 4
2014: 1, 2, 3, 4
2013: 1
2012: 1
2011: 1, 2, 3, 4
2010: 1, 2, 3
ИНДЕКСИРУЕТСЯ
Российский индекс научного цитирования
Google scholar
КиберЛенинка
СОЦИАЛЬНЫЕ СЕТИ
№ 3, 2016
АНАЛИЗ СЕТЕВОЙ СТРУКТУРЫ КОННЕКТОМОВ ЧЕЛОВЕЧЕСКОГО МОЗГА И ИХ КЛАССИФИКАЦИЯ
Автор/авторы:
Меринов Артем Александрович,
магистрант по кафедре интеллектуальных информационных радиофизических систем
Московский физико-технический институт (государственный университет)
Контакты: Институтский пер., д. 9, Долгопрудный, Московская область, Россия, 141701
E-mail: artemmerinov@yandex.ru
Кочкаров Азрет Ахматович,
заместитель директора НТЦ-3 ОАО «РТИ», доцент Департамента анализа данных, принятия решений и финансовых технологий, кандидат физико-математических наук
Финансовый университет при Правительстве РФ
Контакты: ул. 8 Марта, д. 10, стр. 1, Москва, Россия, 127083
E-mail: akochkar@gmail.com
?
УДК: 519.173.5; 004
Аннотация: Рассматривается грубый анализ модели человеческого мозга на основе матриц смежности, представляющих взаимосвязь между различными областями мозга. Основной целью является изучение структурных коннектомов с помощью инструментов теории графов, а именно некоторых графовых метрик, которые описывают сложные сети и их свойства. Основываясь на графовых характеристиках, проводится задача бинарной классификации на примере ASD и TD групп с использованием алгоритмов машинного обучения.
Ключевые слова: бинарная классификация, графовые метрики, коннектом, малые миры, мозг, сложные сети, теоретико-графовые модели
Дата публикации: 31.12.2016
Дата публикации на сайте: 27.06.2017
PDF версия статьи: Скачать PDF
РИНЦ: Перейти на страницу статьи в РИНЦ
Библиографическая ссылка на статью: Меринов А.А, Кочкаров А.А. Анализ сетевой структуры коннектомов человеческого мозга и их классификация//Современная наука. № 3. 2016. С. 9-16
Права на произведение:

Лицензия Creative Commons
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная

Введение

Понимание устройства и принципов работы головного мозга человека является одной из главных проблем науки. Особое место в исследовании мозга заняли вопросы анализа его сетевой структуры, а именно изучения связей между его различными участками.

Коннектомика — это новая область исследования, одной из главных целей которой является составление карты соединений нейронов мозга (коннектома). Коннектом представляет собой математическую модель, которая отображает структурные или функциональные связи между анатомически различными областями мозга [1]. Одной из ключевых задач современной нейробиологии является выявление различий между коннектомами. Например, психические расстройства, как было установлено в [2], связаны с изменением в коннектоме. Это важная область исследований, поскольку она обеспечивает не только полное представление о характере неврологических расстройств, но также имеет практическое применение в медицинской диагностике.

На сегодняшний день расшифрован только коннектом круглого червя — нематоды C. elegans, выбор которого был обусловлен небольшим количеством нейронов и синаптических связей. Что касается человеческого мозга, то он является очень сложной системой, и составление коннектома затрудняется из-за его больших размеров. В связи с этим будет рассмотрен грубый анализ модели мозга. Основной целью будет изучение структурных коннектомов человека и их классификация при помощи инструментов теории графов, а именно некоторых графовых метрик. Таких метрик существует несколько десятков, включая довольно сложные, типа отношения метрик заданного графа к метрикам случайного графа со сходным распределением вершин.

 

Интерпретация графовых «единиц» мозга

В данной работе используются только готовые коннектомы, которые представляет собой неориентированные взвешенные графы или матрицы смежности (DTI-матрицы, diffusion tensor imaging). С помощью МРТ мозг разбивается на участки, таким образом, происходит выделение вершин графа. Диффузионная МРТ позволяет реконструировать нервные пути в головном мозге, то есть происходит построение ребер вместе с количественной характеристикой — весом.

Определение вершины, разбиение мозга на зоны. Определение вершины графа представляет собой комплекс сложных задач, так как ученым не хватает договоренности как лучше определить составляющую «единицу» мозга. В зависимости от исследования, «единицы» мозга, представленные вершинами, могут варьироваться от небольших участков коры до большого количества областей головного мозга [1]. Например, набор из 264 областей, который предложил Power, более точно представляет информацию о сетевой структуре мозга в задаче классификации аутистов [3].

Определение ребра. Вопрос о том, как определить ребро в графе мозга является еще более открытым. Как было описано выше для коннектома червя C. elegance, ребра определялись как синаптические связи между нейронами и были точно определены. На практике большинство графовых анализов коннетома C. elegance приняли самые простые из возможных вариантов — все соединения представлены как неориентированные невзвешенные (или в равных долях) ребра, но это не единственно возможный выбор. Когда мы переходим к графовому анализу сложных нейрофизиологических данных, где не хватает знаний о физических связей между узлами, разумная интерпретация ребер становится все более сложной задачей.

Так как работа направлена на анализ структуры коннектомов, то будем придерживаться структурного подхода [4]. Анатомические соединения могут быть определены различными способами, на основе различных видов томографий. Для диффузионно-тензорной томографии (на основе анализа трактографии) можно назначить вероятность аксонов устанавливать связь между любой парой областей серого вещества. Для обычных данных МРТ, анатомическая связь может быть введена с помощью пороговой матрицы ковариации между областями коры или множеством внутренних частей.

Таким образом, ниже приведена интерпретация составляющих единиц сетевой структуры мозга или DTI-матрицы:

  • вершина — отдельная область мозга, на которые происходит разбиение
  • ребро — связь, соединение между двумя вершинами
  • вес ребра — «сила» связности или количество линий связи, полученных с помощью трактографии (данное количество не обязательно соответствует номеру реальных волокон белого вещества в связи с некоторыми ограничениями в алгоритме построения модели)

 

Данные

Как было сказано выше, в данном исследовании используются уже готовые коннектомы, которые представлены в виде DTI-матриц размерности 264x264. Датасет находится в базе университета UCLA (University of California, Los Angeles). В данных предоставлены 94 объекта, относящиеся к двум классам: ASD (autism spectrum disorder) — 51 объект и TD (typically developing) — 43 объекта.

Рис. 1. Пример DTI-матрицы

 

Описание метода

Нормировка. Существует несколько подходов для нормировки, например, можно оперировать с геометрическими мерами (физическая длина пути между регионами, объем корковых областей и т.д.), а можно использовать топологические нормировки, где, к примеру, количество трактов для каждой пары областей нормируется на общее число трактов во всем головном мозге. В нашем исследовании будем применять нормировку, которую использовали в [5]. Здесь каждое ребро нормируется с помощью среднего геометрического от общего количества трактов смежных вершин:

.

Выделение признаков. Для выделения признаков будем использовать графовый подход, который предлагает использовать метрики для определения особенностей вершин графа. Существуют метрики разных типов — топологические и физические. Последние оперируют с реальными величинами, например, длиной тракта. В этой работе используются только топологические метрики. Их существует довольно много, начиная с простых характеристик (степень вершин, радиус и диаметр графа и т. д.), заканчивая довольно сложными, например, индекс малого мира.

Описание графовых метрик. Для данного подхода мы будем использовать ряд графовых метрик, предложенных в статье [6]. Грубо их можно разделить на две группы: глобальные, которые относятся ко всему графу в целом, и локальные на вершинах. Далее приведено описание каждой метрики вместе с математическим определением.

Пусть

 — множество всех вершин в сети,  — количество вершин;

 — множество всех ребер в сети,  — количество ребер;

 — ребро между -ой и -ой вершиной, ;

статус соединения между -ой и -ой вершиной:  — есть соединение,  — иначе;

 — вес ребра , в дальнейшем мы предполагаем, что веса нормированы, такие, что для всех  и ;

 и  — взвешенная и невзвешенная матрица смежности соответственно.

 

Локальные метрики на вершинах

Взвешенная степень вершины  -ой вершины — сумма весов всех ребер, выходящих из данной вершины:

.

Средневзвешенная степень вершины -ой вершины — усредненная степень суммы весов всех соседних вершин:

,

где  — множество соседей вершины .

Центральность на основе степени  вершины  — простейший способ измерения центральности графа.  вершины  равна количеству связей с другими вершинами или сумме строк (столбцов) матрицы смежности:

.

Нормирока (Freeman) [7]. Разделим взвешенную степень вершины на степень графа-звезды (или максимальную степень вершины):

.

Чем больше  -ой вершины, тем больше число связей с этой вершиной. Таким образом, вершина с большим показателем  может взаимодействовать с бо?льшим числом вершин в графе.

Центральность по близости  вершины  — это величина, равная обратной сумме длин кратчайших взвешенных путей от данной вершины до остальных вершин:

,

где  — длина кратчайшего взвешенного пути между -ой и -ой вершиной, которая вычисляется следующим образом:

,

где  — функция инверсии весов в длину,  — кратчайший взвешенный путь между -ой и -ой вершинами. Для DTI-матрицы  можно найти и уже для обратной матрицы применять алгоритмы нахождения кратчайшего пути, например, алгоритм Дейкстры.

Нормирока (Freeman) [7]. Так как сумма расстояний зависит от числа вершин в графе, то близость нормирована на сумму минимально возможных расстояний ,

или

.

Данная метрика показывает, насколько центральная вершина в среднем удалена от других вершин в графе.

Центральность по посредничеству  вершины  — это сумма доли всех кратчайших путей, которые проходят через две любые вершины ,  и заданную вершину :

,

где ) — количество всех кратчайших путей, соединяющих вершины  и ,  — количество кратчайших путей, соединяющих вершины  и , а также проходящих через данную вершину .

Нормирока (Freeman) [7]. Так как  меняется с изменением пар вершин, как следует из индексов суммирования, то вычисление может быть пересчитано путем деления на число пар узлов не включая , то есть на  для неориентированного графа. Таким образом, :

.

Данная метрика показывает, насколько вершина связывает различные участки графа (выступает в роли посредника).

Центральность на основе собственных векторов для вершины  вычисляется на основе центральностей ее соседей [8]. Для этого нужно вычислить центральность каждой вершины путем решения задачи на собственные значения:

.

Таким образом, центральность на основе собственных векторов вершины определяется следующим выражением:

,

где  — наибольшее собственное значение,  — соответствующий главный собственный вектор матрицы .

Нормирока (Freeman) [7]. Центральность на основе собственных векторов масштабируется с помощью коэффициента пропорциональности . В обсуждениях о нормировке данной величины, было показано [9], что с помощью евклидовой нормировки получается центральность, которая может достигать максимального значения  независимо от размера сети. Умножив полученные значения центральности на , максимально достижимое значение становится , и может быть достигнута только с помощью вершины в центре звезды.

Данный вид центральности дает высокие значения для вершин, которые связаны со многими другими хорошо соединенными вершинами.

Взвешенный коэффициент кластеризации показывает тенденцию вершины  соединяться в кластеры вместе с другими вершинами:

,

где  — взвешенное геометрическое среднее всех треугольников (триад) вокруг -ой вершины:

.

Эффективность  -ой вершины определяет ее способность распространять информацию к другим вершинам в сети:

.

 

Глобальные метрики

Диаметр и радиус графа соответственно равны:

,

,

где  — это длина кратчайшего пути между вершинами и . Например, для нахождения диаметра графа сначала находят кратчайшие пути между всеми парами вершин, а затем берут наибольшую длину любого из этих путей.

Плотность сети — это характеристика, показывающая, как число ребер в данном графе отличается от числа ребер в полном графе [10]:

.

Если число ребер близко к максимальному, то граф называется плотным, иначе — разреженным. Для полного графа число ребер равно , поэтому максимальная плотность равна . И обратное: если ребра отсутствуют, то плотность равна . В нашем случае DTI-матрица является разреженной.

Коэффициент ассортативности. Ассортативные сети — это сети, в которых узлы с большой степенью (так называемые «звезды» преимущественно связаны с такими же по степени узлами. Чтобы охарактеризовать это свойство, используют коэффициент ассортативности. Коэффициент ассортативности — это коэффициент корреляции Пирсона между взвешенной степенью соседних узлов [11]:

.

Коэффициент ассортативности лежит в отрезке , причем для ассортативных сетей .

Взвешенный коэффициент транзитивности. Транзитивность графа — величина, выражающая степень, в которой соседние вершины являются связанными друг с другом: если есть связь между вершинами  и , а также между  и , то также есть связь между  и  («друзья моих друзей мои друзья») [10]. Мерой транзитивности является глобальный коэффициент транзитивности, присущий ко всему графу:

.

Данная величина достигает максимума для транзитивного графа. Коэффициент транзитивности также иногда называют коэффициентом кластеризации .

Взвешенный коэффициент кластеризации  — усредненная по количеству вершин  сумма всех отдельно взятых взвешенных коэффициентов кластеризации:

.

Взвешенная характеристическая длина пути — кратчайшая длина пути между двумя вершинами  и , усредненная по всем парам вершин:

.

Большая величина  предполагает, что сеть будет выглядить почти как линейная цепочка, а относительно маленькая величина показывает на компактность сети.

         Глобальная эффективность — мера, показывающая, насколько эффективно сеть осуществляет обмен информацией:

.

         Показатель малого мира для взвешенного графа — это величина, содержащая отношение метрик заданного графа к метрикам случайного графа со сходным распределением вершин:

 ,

где  — взвешенный коэффициент кластеризации, — взвешенная характеристическая длина пути.

Сети, обладающие свойством малых миров, всегда имеют .

 

Анализ коннектомов

         В данном пункте проведем анализ коннектомов на основе некоторых графовых метрик по отдельности. Найдем значения данных метрик для всех объектов в целом, а также попробуем провести сравнительный анализ для конкретного класса (ASD и TD).

Будем считать, что все объекты ASD группы (TD группы) имеют схожие сетевые характеристики (так как эти признаки принадлежат одному классу). Поэтому попробуем найти какие-либо отличия в ASD и TD объектах, используя некоторые из перечисленных графовых метрик. Для этого проведем сравнение отдельных метрик для матриц, относящихся к ASD и TD группе.

Отметим, что используемые DTI-матрицы имеют одинаковую размерность (то есть происходит сравнение векторов одной размерности). Таким образом, получим сравнение 264-ех метрик на вершинах. Напомним, что в данном анализе мы используем нормированные характеристики графа.

Средневзвешенная степень вершины

(ASD, TD) = (6658.11, 6548.32)

В [3] сказано, что средневзвешенная степень вершин для ASD объектов больше, чем для TD. Это можно пояснить тем, что у аутистов бо?льшее количество связей, нежели у нормально развивающихся людей.

Центральности

на основе степени: (ASD, TD) = (254.95, 254.64)

по близости: (ASD, TD) = (5.49, 5.47)

по посредничеству: (ASD, TD) = (54.19, 51.98)

на основе собственных векторов: (ASD, TD) = (153.20, 147.64)

Центральность у ASD группы больше, чем у TD группы. Например, короткие соединения являются более важными признаками для ASD объектов (так как центральность по близости является обратной величиной по отношению к характерной длине пути). Также бо?льшая центральность по посредничеству соответствует ASD группе [12].

Коэффициент кластеризации

(ASD, TD) = (8.63, 8.82)

Коэффициент кластеризации у ASD группы меньше, чем у TD группы, о чем пишут в [3]. Это значит, что тенденция вершин ASD группы соединяться в кластеры вместе с другими вершинами меньше, чем у TD группы.

         Диаметр графа

(ASD, TD) = (, )

Получаем, что средняя максимальная длина кратчайшего пути между двумя вершинами примерно равна 5-ти (у ASD объектов это значение в среднем немного меньше, чем у TD объектов).

Сложно сказать что-то определенное по большинству метрик графа, также как и в работе J.D. Rudie [3], где нет сильных отличий между классами.

 

Феномен «малого мира»

         Бо?льший интерес представляет из себя метрика, связанные с понятием «малого мира» сети — показатель малого мира.

Феномен «малого мира» или «мир тесен» связан с фактом, что из одной вершины сети в любую другую не смежную с ней вершину можно попасть за небольшое количество шагов (используя некоторое количество ребер).

Еще в 1960-х гг. известный социолог Stanley Milgram провел эксперимент, в котором определил количественное выражение данного факта, названное как «закон шести рукопожатий». Согласно предложенной теории человечество определяется как система, в которой между любыми двумя людьми есть порядка пяти общих знакомых.

В 1998 г. Duncan J. Watts и Steven H. Strogatz показали, что в сетях как естественно существующих, так и созданных человеком (в том числе нейронная сеть, коннектом C. elegans), проявляется феномен «мир тесен». Данное исследование было опубликовано в журнале «Nature» [13].

Более поздние исследования в данной области были показаны на примере социальной сети Facebook в 2011 г. Была проверена теорию «шести рукопожатий» на базе пользователей (1,6 млрд человек), и было выяснено, что двух людей разделяют в среднем 3,57 человека (в 2008 г. этот показатель равнялся 4,28). Но выводы Facebook нельзя называть опровержением теории «шести рукопожатий» из-за небольшой выборки по сравнению со всем населением Земли, а также из-за того, что эта часть людей обладает аккаунтом в Facebook и доступом к Интернету.

Посчитанная метрика «показатель малого мира» , оказалась равной больше 1, что подтверждает факт феномена «малого мира»:

(ASD, TD) = (, ).

Оказывается, в исследовании J. Watts и H. Strogatz [13] при подсчете «показателя малого мира» коннектома червя C. elegans получилось число 4.75, очень близкое к нашим результатам. Также, как и в работе J.D. Rudie [3] (ASD, TD) = (, ), так и по результатам нашего исследования, «показатель малого мира» превышает у TD группы.

 

Результаты сравнения

         На самом деле сравнение ASD и TD групп по отдельным графовым метрикам не подлежит из-за однородности распределения, результаты получились с большой дисперсией. То есть нельзя отличить ASD от TD группы по отдельной характеристике.

Например, для индекса «малого мира»  по критерию однородности значение статистики критерия для двух выборок равна:

.

Где  и  — размеры первой и второй выборок, и — число вхождений первой и второй выборок в-ый класс.

Соответственно, p-value равно  (из таблицы «Процентные точки распределения »). Поэтому в работе используется композиция графовых метрик, которые использует бинарный классификатор, о чем будет написано далее.

 

Теоретические сведения о бинарной классификации

         Пусть:  — множество объектов,  — конечное множество классов. Чтобы классифицировать объект, нужно найти отображение : , то есть построить алгоритм, способный классифицировать произвольный объект . Если , то классификация называется бинарной. Обозначим множество классов через

Большинство известных классификаторов могут быть представлены в виде  где  — произвольный объект,  — дискриминантная функция,  — вектор параметров, определяемый по обучающей выборке,  — порог принятия решения. Уравнение  определяет разделяющую поверхность.

В нашем случае  к этому можно привести любую задачу бинарной классификации. ASD группа относится к классу, TD группа — соответственно к классу.

Таблица сопряженности. Рассмотрим задачу бинарной классификации, где классы разделены на положительный (1) и отрицательный (0). Классификатор  может предсказать верный класс, а может и ошибиться. В связи с этим получается 4 варианта, которые проиллюстрированы таблицей ниже ( — предсказание,  — истинный класс):

 

 Возвращаясь к нашей задаче, предположим, что мы на основе каких-либо анализов собирается поставить диагноз ASD или его отсутствие (TD). Тогда:

  •  (true-positive) — классификация положительная, истинное значение положительное (пациента болен, диагноз положительный)
  •  (true-negative) — классификация отрицательная, истинное значение отрицательное (пациент здоров, диагноз отрицательный)
  •  (false-negative) — классификация отрицательная, истинное значение положительное (пациент болен, диагноз отрицательный)
  •  (false-positive) — классификация положительная, истинное значение отрицательное (пациент здоров, диагноз положительный).

ROC-кривая и ее AUC. Пусть дана задача классификации: нам известна выборка объектов , а также соответствующие им известные бинарные ответы. Чтобы измерить качество алгоритма классификации , можно посчитать следующие характеристики:

FPR (доля ошибочных положительных классификаций) — отношение числа ложных срабатываний к размеру нулевого класса:

,

TPR (доля правильных положительных классификаций) --- отношение числа верных срабатываний к размеру первого класса:

.

ROC-кривая хорошо подходит для оценки качества бинарного классификатора. По оси абсцисс откладывается FPR, а по оси ординат — TRP, таким образом, данная кривая показывает зависимость TPR от FPR при варьировании порога . Она проходит из точки , соответствующей максимальному значению порога, в точку , соответствующую минимальному значению порога.

Площадь под ROC-кривой AUC — это характеристика качества классификации, не зависящая от соотношения цен ошибок. Чем больше значение AUC, тем «лучше» модель классификации. Данный показатель часто используется для сравнительного анализа нескольких моделей классификации. Площадь, равная , соответствует случайному гаданию, и такой метод классификации непригоден для оценки качества. Случай равенства  является идеальным.

 

Алгоритмы машинного обучения

         В качестве основы возьмем работу, проведенную в [5].

         В исследовании используются алгоритмы машинного обучения с помощью процедур перекрестной проверки (кросс-валидации) для изучения структурных различий между TD и ASD группами. На каждом шаге мы строим модель по обучающей выборке, где известно, к какому классу принадлежит тот или иной объект, а затем проверяем данную модель на неизвестных данных. Это дает представление о том, насколько хорошо наша модель будет вести себя на вновь предстоящие неизвестные данные.

На практике чаще всего выбирается , при этом модель обучается на  данных и тестируется на . В этом случае, как показали исследования, получается наиболее достоверная оценка ошибки модели. Мы используем 10-кратную кросс-валидацию, поскольку она также обеспечивает баланс между робастностью (устойчивость к помехам, независимость влияния на результат различного рода выбросов) и временем работы классификатора (использованием как можно больше данных).

Для всех алгоритмов используется линейный классификатор на примере логистической регрессии (LR, logistic regression) и метода опорных векторов (SVM, support vector machine) с регуляризацией . Данные классификаторы могут используются в признаковых пространствах большой размерности.

 

Результаты расчетов

Результаты работы классификаторов на некоторых метриках по отдельности и в композиции (метрика качества — ROC AUC):

  • только глобальные метрики графа (матрица признаков размерности 94x7):

LR’s ROC AUC:

SVC's ROC AUC:

  • только взвешенная степень вершин (94x264):

LR’s ROC AUC:

SVC's ROC AUC:

  • только центральность по близости (94x264):

LR’s ROC AUC:

SVC's ROC AUC:

  • только центральность на основе собственных векторов (94x264):

LR’s ROC AUC:

SVC's ROC AUC:

и т.д.

  • все метрики: и локальные, и глобальные (94x1590) — лучший результат:

LR’s ROC AUC:

SVC's ROC AUC:

 

Заключение

В данной работе:

  • были рассмотрены и изучены DTI-матрицы, связанные со структурой и свойствами сложных сетей мозга
  • были описаны и посчитаны графовые метрики по данным DTI-матриц
  • было показано, что на используемых данных нельзя проводить сравнение различных групп по отдельным метрикам
  • была описана и реализована задача бинарной классификации при помощи языка программирования Python 3.5 и библиотеки машинного обучения Scikit-learn. Результат классификации равен 0.67 ROC AUC. Можно предположить, что такой неточный результат был получен из-за вида используемых данных: на сегодняшний день выявление различных психических расстройств, основанных на данных нейровизуализации, далека от точной (это верно для многих патологий, включая аутизм). К тому же данный датасет предоставил относительно небольшое количество объектов.
Литература
Просмотров: 258 Комментариев: 0
Комментарии
Комментариев пока нет.

Чтобы оставить комментарий, Вам нужно зарегистрироваться или авторизоваться под своими логином и паролем (можно войти, используя Ваш аккаунт в социальной сети, если такая социальная сеть поддерживается нашим сайтом).

Поиск по авторам
Поиск по статьям
ISSN 2079-4401
Учредитель: ООО «Законные решения»
Адрес редакции: 123242, Москва, ул. Большая Грузинская, д. 14.
Если не указано иное, материалы сайта доступны по лицензии: Creative Commons Attribution 4.0 International
Журнал зарегистрирован Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор). Свидетельство о регистрации средства массовой информации ПИ № ФС77-39293 от 30.03.2010 г.; журнал перерегистрирован: свидетельство о регистрации средства массовой информации ПИ No ФС77-70764 от 21.08.2017 г.
© Журнал «Современная наука», 2010-2018