Книжный рынок и издательства   Библиотеки   Образование
и наука
  Конкурс
“Университетская книга”

Ноябрь 2019
"Книга и чтение в культурном коде человечества"

  • Михаил ШЕПЕЛЬ: «Ставка на личную мотивацию сотрудников и совместное управление библиотекой»
  • НЭБ, ФКС и возрастная маркировка контента
  • Аудиокниги: кроссмедийный подход и работа с аудиторией
  • Российские книжные: совместное будущее



МультиВход

t8

 

Интервью

Книжный рынок

Вузовские издательства

Искусство издавать

Библиотеки

Образование

Инновационные технологии

Электронные библиотеки

Культура книги

Библиогеография

Библиотехнологии

Выставки и конференции

Конкурсы и премии

Документы

Copyright.ru

КНИГА+

Год литературы

Журнал Онлайн

 

lit-flagman1




 

rgdb-podari-rebenku


Рассылка


Рейтинги университетов: правила составления и система оценок
13.04.2014 21:43

После выхода Указа Президента РФ от 7 мая 2012 г. № 599 тема рейтингов университетов приобрела особую популярность и практическое значение: в тексте предписано не менее пяти российским университетам к 2020 г. войти в топ-100 международных рейтингов университетов. В связи с тем, что в Указе не уточняется, какие именно рейтинги имеются в виду, а также, зачем это нужно, стоит попытаться разобраться в том, какие в настоящие время существуют рейтинги университетов, как они составляются и что показывают.

В литературе имеется достаточное количество подробных описаний различных систем ранжирования университетов[1], однако системы оценок изменяются вместе с развитием методов аналитической обработки фактических данных, совершенствованием методик и самих подходов к оценке научно-образовательной деятельности вузов, поэтому рассмотрим современное состояние основных университетских рейтингов.


1. Арефьев П.А. Международные рейтинги высших учебных заведений: история и современность // Измерение рейтингов университетов: международный и российский опыт. М.: Центр социологических исследований, 2014. – С. 15–65.

Для начала следует отметить, что рейтинги формируются с ориентацией на целевую аудиторию – абитуриентов и их родителей. Ни один рейтинг университетов не составлялся для принятия административных решений. Однако в настоящее время рейтинги всё чаще из информационных инструментов превращаются в инструменты управления как внутри университета, так и на уровне государства. В связи с этим особенно важно разобраться в их сущности и правилах составления.

ШАНХАЙСКИЙ РЕЙТИНГ ACADEMIC RANKING OF WORLD UNIVERSITIES (ARWU)

История международных (глобальных) рейтингов университетов начинается в 2003 г. с появления Шанхайского рейтинга – Academic Ranking of World Universities (ARWU). Это на сегодняшний день самый стабильный из имеющихся рейтингов, его критерии не менялись с момента создания, когда Институту высшего образования Шанхайского университета было поручено разработать критерии для отбора зарубежных вузов, куда надо направлять для обучения студентов и аспирантов для дальнейшего развития собственных китайских университетов и научных организаций. После публикации результатов исследования в виде списка 500 лучших университетов мира, отобранных по разработанным критериям, данный рейтинг приобрёл популярность и остаётся таковым до настоящего времени.

Какие критерии используются для составления этого рейтинга?[2]


2. http://www.shanghairanking.com/ARWU-Methodology-2013.html.

Мерилом качества образования в университете является количество выпускников университета, получивших либо Нобелевскую премию, либо медаль Филдса. Этот критерий в общей оценке имеет вес 10% и рассчитывается с учётом года выпуска лауреата – «свежие» премии учитываются со 100%-ным весом, а премии столетней давности – 10%-ным (со всеми промежуточными вариантами). Таким образом, Филдсовская медаль 2010 г. выпускника СПбГУ Станислава Смирнова, закончившего математико-механический факультет СПбГУ в 1992 г., «дороже» для университета в 10 раз, чем Нобелевская премия 1904 г. И.П. Павлова, закончившего Петербургский университет в 1875 г., или примерно в три раза, чем премия 1962 г. Л.Д. Ландау, закончившего физико-математический факультет Ленинградского университета в 1927 г.

Качество преподавательского состава с весом 20% от общей оценки определяется количеством сотрудников университета, получивших аналогичные награды (также с учётом давности получения премии и долей в случае присуждения премии коллективу из разных учреждений).

Учитываются Нобелевские премии по физике, химии, медицине, экономике. Премии мира и премии в области литературы в зачёт не идут. Привлечение к работе в университете учёных, уже имеющих Нобелевские премии или медали Филдса, не улучшит положение университета в Шанхайском рейтинге по этим двум критериям.

Зато привлечение ведущих учёных для работы в вузе может помочь повышению следующих критериев, характеризующих научную производительность университета:

  • количество высокоцитируемых учёных из числа работников университета (20%);
  • количество статей, опубликованных в журналах Nature и Science за последние пять лет (20%);
  • общее число статей, вошедших в индексы научной цитируемости Science Citation Index-Expanded и Social Science Citation Index в предыдущем году (20%).

Что это за показатели и откуда они берутся?

Эти показатели рассчитываются на основании данных Web of Science – влиятельного индекса научного цитирования, составляемого компанией Thomson Reuters путём индексации статей и пристатейных списков литературы более 12 тыс. научных журналов мира, отбираемых по строгим критериям.

Высокоцитируемым учёный считается, если по количеству цитирований его статей он попадает в 250 самых цитируемых учёных по данной конкретной предметной области. Этих областей в Web of Science выделяется 21. Списки составляются по данным о публикациях 1981–2008 гг., проиндексированных в Web of Science Core Collection[3].


3. Ранее – до 10 января 2014 г. – в Web of Science.

На сайте www.highlycited.com представлены данные по высокоцитируемым исследователям вплоть до 2008 г., однако с 2012 г. данные на этом портале не обновляются, и информация о том, относится ли учёный к категории высокоцитируемых, может быть получена только путём сопоставления фактической цитируемости статей учёного и пороговых значений цитируемости в разделе Essential Science Indicators на платформе Web of Science[4].


4. Ранее – Web of Knowledge.

Впрочем, к сожалению, для российских университетов данный показатель оказывается неактуальным – в списках высокоцитируемых авторов есть только семь российских учёных, и только один из них имеет университетскую аффилиацию – это Руслан Зуфарович Валиев из Уфимского государственного авиационного технического университета.

В отношении количества статей в журналах Science & Nature (данные за пять полных последних лет) используется довольно сложная система расчёта весов для соавторов (учитываются только articles – статьи и proceeding papers – труды конференций). Для главного автора (corresponding author) засчитывается 100%, для первого автора – 50%, если аффилиация отличается от аффилиации главного автора, 25% – для второго автора, 10% – для остальных авторов.

При подсчёте общего количества статей учитываются только типы публикаций articles и proceeding papers, при этом вес статей из Social Science Citation Index удваивается. Это в какой-то мере компенсирует то, что в расчёт не принимаются публикации, индексируемые в третьем индексе Web of ScienceArts&Humanities Citation Index, и даёт шансы попасть в рейтинг университетам преимущественно социально-гуманитарного профиля.

Поскольку показатели университетов сильно зависят от их размера, вводится дополнительный критерий – 10% общего балла рассчитывается путём нормирования всех описанных показателей с учётом их весов на academic staff (научно-педагогические работники в российской терминологии), причём берётся не количество людей, а full-time equivalent (FTE – эквивалент полной занятости, примерно среднесписочная численность).

Весь этот набор показателей рассчитывается, естественно, не для произвольного набора университетов – анализируются университеты, упоминаемые в сайтах Нобелевского комитета, Филдсовской премии, указанных в качестве аффилиации в статьях Science и Nature, а также университеты, имеющие значительное количество публикаций в соответствующих индексах Web of Science.

Кроме основного рейтинга, составляются также предметные рейтинги ARWU-FIELD и ARWU-SUBJECT, учитывающие особенности отдельных научных или предметных областей. Так, для рейтингов ARWU-FIELD совсем не учитываются показатели по статьям в Science & Nature, а кроме количества публикаций по конкретной области знаний учитывается количество публикаций в 20% топовых журналов соответствующей предметной области. Кроме того, в инженерных науках не рассчитываются баллы за Нобелевские премии и медали Филдса (для остальных областей учитываются эти премии только после 1971 г.), но зато учитываются общие затраты на исследования прикладного характера для промышленного применения. Рейтинги ARWU-FIELD рассчитываются для следующих широких областей:

  • Natural Sciences and Mathematics, SCI (естественные науки и математика);
  • Engineering/Technology and Computer Sciences, ENG (инженерия, технологии и компьютерные науки);
  • Life and Agriculture Sciences, LIFE (науки о жизни и сельскохозяйственные науки);
  • Clinical Medicine and Pharmacy, MED (клиническая медицина и фармакология);
  • Social Sciences, SOC (социальные науки).

Для рейтингов ARWU-SUBJECT (по направлениям: математика, физика, компьютерные науки, экономика и бизнес) специфика состоит в том, что для математиков учитываются только Филдсовские лауреаты с 1961 г., для компьютерных наук – премии Тьюринга с 1961 г., для остальных – Нобелевские премии с 1961 г. Как и в рейтинге ARWU-FIELD, учитывается количество публикаций в 20% топовых журналов соответствующей предметной области.

РЕЙТИНГ QS

С 2004 по 2009 г. приложение к газете Times – еженедельник Times Higher Education (THE)– в сотрудничестве с компанией Quacquarelli Symonds (QS) представлял свой собственный рейтинг ведущих университетов мира. Данный рейтинг в качестве источника наукометрических данных использовал базу данных Scopus.

C 2010 г. Times Higher Education составляет рейтинг в сотрудничестве с Thomson Reuters уже на основе данных Web of Science, а QS продолжает развитие рейтинга самостоятельно.

Методика составления рейтинга QS остаётся почти неизменной ещё со времён представления рейтингов THE-QS, однако проводится ряд модификаций показателей, составляются новые частные рейтинги. В связи с этим рассмотрим применяемые в настоящее время критерии[5].


5. http://www.iu.qs.com/university-rankings/world-university-rankings.

Максимальный вес в общем рейтинге придаётся результатам глобального опроса академического сообщества (40%), в котором ежегодно обрабатывается более 120 тыс. ответов респондентов со всего мира. В экспертное сообщество входят как учёные и преподаватели вузов, так и представители высшего менеджмента университетов. Источниками для пополнения пула экспертов служат базы данных экспертов, ранее участвовавших в опросах QS, база данных подписчиков издательства World Scientific, база данных Mardev-DM2, содержащая более 1,2 млн контактов из числа академического сообщества и научных библиотек, представители академического сообщества, самостоятельно пожелавшие принять участие в опросах, и кандидатуры экспертов, представляемые вузами.

10% окончательного балла приходится на мнение работодателей, для составления списков респондентов используются данные о ранее участвовавших в опросах, базы данных QS и партнёров, а также кандидатуры, представленные вузами.

Для повышения качества и достоверности данных агрегируются результаты опросов за три года, с разным весом учитываются результаты опросов «домашних» и зарубежных респондентов, отсеиваются статистически аномальные результаты опроса. Это позволяет избежать манипулирования данными и пресекает попытки вузов искусственно увеличить количество положительных отзывов.

Существенное значение в оценке качества образования придаётся такому показателю, как соотношение «преподаватель – студент» – 20% в итоговой оценке. Расчёт осуществляется по FTE как в отношении студентов, так и в отношении преподавателей (в рейтинге QS под academic staff подразумеваются не только преподаватели, но и исследователи, т.е. в российской терминологии – научно-педагогические работники). Это, пожалуй, единственный показатель, по которому российские вузы практически не уступают лидерам рейтинга. На рис. 1 представлено ранжирование по этому показателю университетов России и Великобритании (рейтинг 2013 г.).

rejtingi-1

Качество преподавательского состава учитывается путём расчёта количества цитирований, полученных статьями университета за пять лет по данным базы Scopus в расчёте на одного преподавателя. При этом с 2011 г. количество цитирований учитывается без самоцитирований организации, т.е. показывает реальный интерес научной общественности к работам, выполненным в вузе. Исключение самоцитирований стало самым существенным изменением в методике составления рейтинга после 2009 г. Этот показатель составляет 20% в общем балле.

Важным признаком университета мирового уровня (World Class University[6]) является уровень его интернационализации, который в рейтинге QS учитывается в общей сложности с весом 10%.


6. Салми Д. Создание университетов мирового класса. – М.: Весь мир, 2009. – 132 с.

Его составляют доля иностранных преподавателей (5%) и доля иностранных студентов (5%).

Одновременно с общим рейтингом университетов (в сентябре –октябре каждого года) публикуются рейтинги по научным областям – QS World University Rankings by Faculty. Эти рейтинги составляются по пяти крупным областям по следующей методике, претерпевшей значительные изменения с 2013 г.[7]:

  • различный вес для разных областей придаётся результатам опроса академического сообщества, работодателей и показателя цитирования (табл. 1);
  • цитирования рассчитываются не на количество преподавателей, а на статью;
  • учитывается индекс Хирша статей организации по соответствующей области за определённый период.


7. www.iu.qs.com/2013/09/a-new-approach-to-faculty-areas.

rejtingi-2

С 2011 г. QS представляет также рейтинг университетов по более узким предметным областям – QS World University Rankings by Subject. Рейтинги составляются по 30 отдельным предметным областям, публикуются топ-200 университетов по каждой области. Методика составления данных рейтингов практически аналогична методике QS World University Rankings by Faculty с более ярко выраженными различиями в весах показателей для каждой из 30 оцениваемых областей[8].


8. www.iu.qs.com/university-rankings/subject-tables.

Этот рейтинг публикуется в феврале – марте и интересен тем, что первичные критерии для вхождения в этот рейтинг отличаются от критериев для рассмотрения университета в общем рейтинге – необходимо, чтобы университет был отмечен не менее чем в 20 отзывах академического сообщества или работодателей, опубликовал не меньше определённого порогового значения публикаций в данной конкретной дисциплине и осуществлял подготовку как бакалавров, так и магистров по данному конкретному направлению. Таким образом, в данный рейтинг имеют шансы попасть узкоспециализированные университеты, не включаемые в общий рейтинг.

QS составляет также и региональные рейтинги (Азия, Латинская Америка, БРИКС), а также довольно интересный рейтинг молодых университетов – Top 50 under 50. Для России в данном аспекте интересен рейтинг университетов БРИКС, созданный QS в 2013 г. Для составления этого рейтинга базовой являлась основная методика составления общего рейтинга, но с некоторыми видоизменениями – повышен вес мнения работодателей, учитывается не только количество цитирований (в этом рейтинге цитирования учитываются в расчёте не на преподавателя, а на статью), но и количество публикаций в Scopus, несколько снижен вес показателей интернационализации и добавлен показатель «остепенённости» преподавательского состава[9].


9. www.topuniversities.com/university-rankings-articles/brics-rankings/qs-university-rankings-bricsmethodology.

Таким образом, данный рейтинг составляется по следующим критериям:

  • мнение академического сообщества (Academic reputation, 30%);
  • мнение работодателей (Employer reputation, 20%);
  • соотношение преподавателей и студентов (Faculty/student ratio, 20%);
  • количество преподавателей с учёными степенями (10%);
  • количество статей на одного преподавателя (Papers per faculty, 10%);
  • количество цитирований на статью (Citations per paper, 5%);
  • доля зарубежных преподавателей (International faculty, 2,5%);
  • доля зарубежных студентов (International students, 2,5%).

РЕЙТИНГ TIMES HIGHER EDUCATION WORLD UNIVERSITY RANKING

Рейтинг Times Higher Education World University Ranking, составляемый с 2009 г. в сотрудничестве с Thomson Reuters, претерпел по сравнению с тем, который составлялся вместе с QS, гораздо более сильные изменения[10].


10. www.timeshighereducation.co.uk/world-university-rankings/2013-14/world-ranking/methodology.

rejtingi-3Основные группы показателей – качество обучения, исследований и интернационализация – дополнены показателями трансфера знаний (рис. 2).

Качество обучения (в общей сложности 30%) оценивается по таким показателям, как результат опроса академического сообщества по качеству образования (15%), соотношение преподавателей и студентов (4,5%), соотношение студентов и аспирантов (2,25%), отношение количества защит диссертаций в университете к общему количеству преподавателей (6%) и отношение общеуниверситетских доходов к общему количеству преподавателей, характеризующее инфраструктурную обеспеченность научно-образовательной деятельности университета (2,5%).

Качество исследований (30%) оценивается по результатам опроса академического сообщества (18%), затратам на научные исследования, которые рассчитываются с учётом различий в финансировании разных научных областей путём нормализации на среднемировые показатели (6%), и количество статей, опубликованных университетом в журналах, индексируемых в Web of Science, причём данный показатель рассчитывается с учётом как численности преподавателей, так и с нормализацией по областям знаний (6%).

Самый большой вес (30%) придаётся «влиятельности» исследований, рассчитываемой по цитируемости статей университета. Это самый интересный и сложный для расчёта показатель, используемый при составлении рейтинга. Цитируемость рассчитывается как полностью нормализованный показатель, учитывающий особенности цитирования в различных областях знаний, разницу в цитировании статей, опубликованных в разные годы, разных типов публикаций (научные статьи и обзоры, например). Кроме того, вводятся поправки на средний уровень цитируемости страны в целом. Так, для университетов США, цитируемость которых значительно выше, чем среднемировой уровень, вводятся понижающие коэффициенты, а для России (как это ни грустно признавать) – повышающие, поскольку уровень цитирования российских статей значительно ниже среднемирового уровня. Такой подход позволяет достаточно корректно сравнивать цитируемость статей в разных областях наук с учётом национальных особенностей независимо от их количества и размера университета. Однако и в данном случае могут быть проблемы, связанные с чисто статистическими особенностями расчёта. Наиболее ярко это проявилось в рейтинге прошлого года, когда МИФИ по этому показателю перегнал все ведущие университеты мира благодаря только паре высокоцитируемых статей. Этот университет впервые рассматривался в рейтинге, поскольку перешёл пороговую границу по количеству публикаций в год (200 статей в Web of Science), и в связи с этим даже нормирование не скомпенсировало запредельное цитирование одной статьи, написанной по результатам работы в ЦЕРН коллективом почти в тысячу авторов. В 2013 г. этот университет рассматривался уже только в предметных рейтингах Physics и Engineering.

Показатель, характеризующий трансфер знаний и технологий, рассчитывается исходя из объёма средств, полученных на проведение научных исследований и разработок от предприятий реального сектора экономики, нормированных на численность преподавательского состава (2,5% в общей оценке).

Интернационализация университета оценивается с весом в 7,5% поровну между такими показателями, как доля иностранных студентов, доля иностранных преподавателей и доли статей, написанных в международном соавторстве.

Все показатели, связанные с публикациями, рассчитываются за пятилетний период.

Наряду с глобальным рейтингом составляются также и рейтинги по научным областям, содержащие все те же параметры, что и для общего рейтинга, но с другими весовыми коэффициентами. Так, для гуманитарных наук снижен вес цитируемости (15%) и значительно выше оценивается качество образования (37,5%). Сводные данные по весам групп показателей представлены на рис. 3.

rejtingi-4

Публикуемый Times Higher Education с 2011 г. репутационный рейтинг основан целиком на результатах опроса академического сообщества, при этом отзывы о качестве исследований учитываются с большим весом, чем отзывы о качестве образования.

Рейтинг молодых вузов 100 under 50 составляется THE с 2012 г. по тем же группам критериев, что и основной рейтинг, но со значительно меньшим весом репутационных показателей (результаты опросов).

В прошлом году появился рейтинг университетов Азии, а осенью 2013 г. – рейтинг университетов стран БРИКС и развивающихся стран. Оба эти рейтинга строятся по той же методике, что и глобальный рейтинг.

Описанное не исчерпывает весь спектр существующих рейтингов университетов, но эти три являются наиболее признанными и, скорее всего, вхождение российских университетов в топ-100 именно этих рейтингов имеется в виду в Указе Президента РФ от 7 мая 2012 г.

СТРЕМЯСЬ В ЛИДЕРЫ…

Каким же должен быть российский университет, чтобы удовлетворять всем этим требованиям?

Университеты должны иметь серьёзную научную репутацию, которая выражается в большом количестве хорошо цитируемых статей, в наличии престижных научных премий и т.д. Значение полученных в прежние годы выпускниками и сотрудниками российских университетов Нобелевских премий или медалей Филдса с годами снижается, т.е. без «свежих» достижений позиции как МГУ, так и СПбГУ, входящих на сегодняшний день в Шанхайский рейтинг, будут неизбежно падать, если не скомпенсируются большим количеством статей в Science и Nature или появлением высокоцитируемых исследований и исследователей.

Очень часто проблему видят в том, что в Web of Science и Scopus мало российских журналов, поэтому так всё плохо с рейтингами. Однако если для Шанхайского рейтинга, где учитывается общее количество статей в SCIE и SSCI, включение российских журналов в Web of Science ещё может оказать какое-то положительное влияние, то в рейтингах QS или THE массированное внедрение российских научных журналов в международные индексы цитирований на сегодняшний день практически бесполезно, если кардинально не поднять их качество. Несмотря на тенденцию к увеличению количества статей российских университетов как в Web of Science, так и в Scopus, большая их часть оказывается в российских переводных журналах, цитируемость которых весьма невелика, т.е. на показатели цитируемости, используемые в рейтингах QS или THE, эти статьи практически не влияют[11].


11. Москалёва О.В. «Рейтинги университетов и научные журналы». Материалы 2-й международной научно-практической конференции «Научное издание международного уровня: проблемы, решения, подготовка и включение в индексы цитирования и реферативные базы данных». – Режим доступа: www.conf.neicon.ru/materials/domestic/Moskaleva250913.pdf__

Включение российских журналов в международные индексы и повышение их качества могут дать ожидаемый эффект только в очень отдалённой перспективе. Наиболее реальным тактически представляется расширение международного сотрудничества, увеличивающего как долю международных публикаций, так и возможность публикаций российских авторов в рейтинговых международных журналах.

В контексте стремления к лидирующим позициям в рейтингах достаточно странно выглядят утверждённые распоряжением Правительства РФ от 30 декабря 2012 г. № 2620-р «Об утверждении плана мероприятий («дорожной карты») “Изменения в отраслях социальной сферы, направленные на повышение эффективности образования и науки”» планы по увеличению соотношения студент /преподаватель с 9,4 студента на одного преподавателя в 2012 г. до 12/1 в 2018 г. Такое изменение, даже если сокращения коснутся только преподавателей, не ведущих регулярную научную работу и не публикующих статей, приведут в конце концов к негативным последствиям: у оставшихся преподавателей сильно возрастёт учебная нагрузка, соответственно, времени на науку и написание статей просто не останется. Кроме того, это сделает проблематичным реализацию индивидуального подхода к обучению, что отрицательно скажется на качестве образования. Да, конечно, количество статей и цитирований для рейтинговых показателей будет делиться на меньшее значение FTE, но числитель (количество статей и их цитирований) может уменьшиться при этом в значительно большей степени. Всё это, в свою очередь, снизит привлекательность российских университетов для зарубежных студентов, т.е. и без того невысокие показатели, характеризующие интернационализацию университетов, упадут ещё больше. Стоит повторить, что соотношение преподаватель/студент на сегодняшний день является практически единственным показателем, по которому российские вузы не уступают лидерам рейтингов. В рейтинге QS 2013 г. балл за соотношение преподаватель/студент составляет для МГУ 99.9, для СПбГУ 97.9, для МГТУ им. Баумана 100, для НГУ 87.3 из 100 возможных, в то время как показатели цитируемости в том же рейтинге составляют для тех же вузов 6.3, 3.6, 1.1 и 5.2 из 100, соответственно. Аналогичная картина и в рейтинге THE.

Таким образом, попытки искусственно завысить ряд показателей университета, которые нормируются на количество преподавателей, путём сокращения их численности, а в особенности за счёт увольнения совместителей из научных учреждений, приведут, скорее всего, к обратному результату. Вряд ли значительный эффект даст увеличение количества публикаций в российских переводных журналах, даже если в базы Web of Science и Scopus будут дополнительно включены какие-то из них.

Какой же выход? Для каждого университета может быть свой путь, но в целом можно порекомендовать повышать квалификационные требования к преподавателям, не снижая их количество, стимулировать научные публикации в рейтинговых журналах, параллельно повышая качество отечественных журналов. Обязательно в образовательные программы магистратуры и аспирантуры надо включать курсы по академическому письму, чтобы молодые учёные испытывали меньше затруднений при написании статей в международные журналы. Но всё это не даст достаточного результата без значительной инфраструктурной и финансовой поддержки научных исследований как со стороны государства, так и со стороны промышленности.

В мире больше 20 тыс. университетов (в январском рейтинге WeboMetrics проанализированы сайты 22 тыс. университетов), и попадание в публикуемые рейтинги уже само по себе означает, что университет может быть отнесён к категории вуза мирового класса. Повышение позиции в рейтинге не может являться самоцелью, поскольку любой рейтинг есть лишь измерение научных и образовательных достижений университета и оценка способности руководства вуза организовать как обучение, так и исследовательский процесс на должном уровне путём грамотного подбора кадров, распределения и привлечения ресурсов, включения в международный обмен, информационной политики и т.д. Любые способы манипулирования показателями могут дать лишь кратковременный эффект. Кроме того, необходимо учитывать, что все остальные вузы, уже попавшие в топ-100, не стоят на месте, и вытеснить их с занимаемых позиций является в достаточной степени утопией – вряд ли можно предположить, что Стэнфорд, Оксфорд или Кембридж когда-либо уступят первенство…

Автор Ольга Васильевна МОСКАЛЁВА, советник директора Научной библиотеки им. М. Горького СПбГУ, кандидат биологических наук

Опубликовано в номере апрель 2014

 



Какие форматы доступа на электронную периодику для вас наиболее интересны?
 

 


webbanner-08-video

 

 webbanner-07-nacproekt

 

 webbanner-01-neb

 

 webbanner-02-fz-o-kulture

 

webbanner-red-03-ebs

 

webbanner-red-04-kn-rynok

 

 webbanner-red-05period-pechat

 

 webbanner-red-06-ros-poligrafiya

 

webbanner-red-10-sost-kultury

 
Copyright © ООО Издательский дом "Университетская книга" 2011
Все права защищены.
Студия Web-diamond.ru
разработка сайтов и интернет-магазинов.