Глобальные рейтинги университетов: практика составления и использования
В 21 веке начали активно возникать глобальные рейтинги университетов. Но какова история их создания? В каком состоянии находится этот процесс сейчас? Как эти рейтинги влияют на сами университеты, на правительства стран и на абитуриентов? Каковы недостатки современных рейтинговых систем?
Глобализация экономики привела к глобализации конкуренции. Этим процессом оказались затронуты и такие специфические хозяйственные структуры, как университеты. Между тем определить, какое из высших учебных заведений является лучше, а какое – хуже, по целому ряду причин представляется проблематичным. Если же речь идет об университетах разных стран, то оценка их качества еще больше осложняется. В связи с этим в мире разворачивается большая работа по составлению глобальных университетских рейтингов, призванных проинформировать общественность, по крайней мере, о самых лучших вузах мира. В настоящее время можно говорить о настоящей «рейтинговой лихорадке», которая близка к своему апогею.
1. Рейтинговая революция: историческая справка
История академического ранжирования университетов, как это ни парадоксально, берет свое начало в Соединенных Штатах еще с 1870 года. Однако этот почти полуторовековой период очень неоднороден по своим достижениям.
Так, первое ранжирование высших учебных заведений академическими кругами началось в конце XIX века. Дальнейшая хронология первого этапа развития рейтинговой деятельности представлена в табл.1.
Годы | Событие |
---|---|
1870–1890 | Комиссия Бюро по образованию США начинает публиковать ежегодные отчеты со статистической информацией и классификацией учебных заведений. |
1910 | Ассоциация американских университетов убеждает Бюро по образованию США внести исправления в классификацию. |
1911 | Бюро по образованию США публикует обновленный рейтинг 344 образовательных учреждений |
1910–1933 | James Cattell, один из первых психологов Америки, профессор университета Пенсильвании и Колумбийского университета, публикует свою работу «American Men of Science», в которой располагает вузы по числу выдающихся ученых, связанных с университетом, по числу студентов или преподавателей факультета, а также по соотношению числа ученых в данном учреждении к общему количеству преподавательского состава. |
1925 | Raymond Hughes, ректор Университета Майами и председатель американского Совета по образованию и его Комитета по магистерской подготовке, публикует работу «A study of the Graduate Schools of America», в которой использует ранжирование по репутации в разрезе 26 научных дисциплин в 36 вузах. |
1957 | Chesley Manly из Chicago Tribune публикует 6 различных рейтингов: 10 лучших университетов, образовательных колледжей, колледжей раздельного обучения для юношей и для девушек, юридических и технических школ. |
1959 | Hayward Keniston из Университета Пенсильвании публикует рейтинг по репутации 25 университетов по группе дисциплин. |
1966 | Allan Carter из Американского Совета по образованию публикует «An assessment of quality in graduate education», где составляется рейтинг 106 университетов. |
1973–1975 | Blau и Margulies вводят рейтинг репутации для профессиональных школ. |
1982 | Национальная академия наук США вводит оценку исследований и докторских программ в США. |
1982 | Рейтинговая деятельность распространяется на преддипломное образование (бакалавриат). |
Второй этап истории университетских рейтингов начинается с 1983 г., когда журналом «US News&World Report» был опубликован список 50 лучших вузов США, инициировавший дальнейшую систематическую работу в этом направлении. Рейтинг создавался в помощь студентам и их родителям при принятии решения относительно выбора высшего учебного заведения. С тех пор журнал ежегодно публикует наиболее авторитетный рейтинг американских университетов [3].
В последующие годы в ряде зарубежных изданий стали появляться рейтинги независимой оценки университетов, сделанные СМИ и специализированными исследовательскими лабораториями. При этом ранжирование проводилось, как правило, на национальном уровне, когда сравниваемые университеты находились внутри одной страны.
Например, с 1986 г. в Великобритании составляется рейтинг Research Assessment Exercise (RAE), который ведется британскими организациями, ответственными за распределение государственного финансирования и контроль эффективности его использования университетами. Рейтинг оценивает результаты исследовательской деятельности английских вузов и является основой для решений об их государственной поддержке. Однако у этого рейтинга имеется серьезный недостаток – он публикуется раз в четыре года; его последняя версия вышла в 2008 году [36]. С 1997 г. в Великобритании составляется множество других рейтингов, успешно конкурирующих с RAE.
С 1991 года в Канаде журналом Maclean’s публикуется один из самых популярных рейтингов университетов Канады – Maclean’s University Ranking [4]. Его целью является популяризация вузов и предоставление информации относительно подготовки в вузах.
В 1992 г. был опубликован первый польский профессиональный образовательный рейтинг крупнейшим варшавским издательством Perspektywy, специализирующимся на вопросах образования [5]. Основная его задача состоит в помощи молодежи сделать правильный выбор в области образования.
С 1993 г. британская газета Times начала публиковать университетские табели о рангах, желая помочь молодым людям правильно выбрать для себя программы и вузы. С этого же года Times начинает выпуск издания «The Good University Guide», в котором предоставляет своим читателям достоверную картину высшего образования в Великобритании. В издании акцент делается больше на преподавании, чем на исследованиях, на программах получения диплома бакалавра, чем на магистерских и докторских программах [6].
С 1994 г. одна из ведущих японских газет, Asahi Shimbun, начинает публикацию ежегодных «Рейтингов университетов» с целью предоставления абитуриентам полной и достоверной информации о японских вузах [7].
В 1998 г. Центр по развитию высшего образования совместно с Национальным фондом оценки товаров и услуг Shiftung Watest составил первые рейтинги вузов Германии. Их целью также являлась помощь выпускникам школ при выборе вуза для дальнейшего обучения. С 1999 г. рейтинги публикуются совместно с еженедельным журналом Stern на сайте Центра по развитию высшего образования [8].
К настоящему моменту национальные и отраслевые рейтинги являются уже весьма многочисленными, однако их истинная роль для мирового информационного пространства пока так до конца и не определена.
Первый международный (но не общемировой!) университетский рейтинг был подготовлен журналом AsiaWeek в 1997 г., составившим классификацию крупнейших университетов Азиатско-Тихоокеанского региона. Однако по политическим причинам, о которых будет сказано ниже, в 2001 году рейтинг прекратил свое существование [1]. Можно сказать, что данный негативный опыт послужил своеобразной репетицией для последующих более успешных действий подобного рода. При этом следует особо отметить, что первая попытка построения глобального (международного) рейтинга была предпринята на образовательном рынке Азии.
С 2003 года начинается третий этап в развитии практики рейтингования вузов и связан он с первым шагом в построении системы глобальных университетских рейтингов. В этом году Шанхайский университет (Shanghai Jiao Tong University) (Китай) начал составлять ежегодный академический рейтинг ведущих университетов мира (Academic Ranking of World Universities) [9]; в дальнейшем мы его будем называть ARWU. На основе этого рейтинга оцениваются научно-исследовательские достижения университетов по 6 показателям. Интегральный показатель для учебного заведения представляет собой средневзвешенное значение по этим показателям. Вузу, получившему самый высокий балл, присваивается показатель 100; результат для остальных учебных заведений рассчитывается в процентном отношении от лидера. Здесь также следует обратить внимание на тот факт, что первый глобальный рейтинг «стартовал» в Азии. Именно с 2003 года начинается новая история университетских рейтингов, т.к. впервые была успешно применена «сквозная» методика оценки вузов разных стран, независимо от страны их происхождения.
С 2004 года свою ежегодную версию лучших университетов мира предлагает британская организация «TSL Education Ltd», публикуя ее в издании «The Times Higher Education» [10]. C 2005 года рейтинг составлялся совместно с компанией «Quacquarelli Symonds» и назывался QS-THES (с 2009 г. – THE-QS). Однако с 2010 г. в результате переосмысления накопившихся ошибок и критики со стороны мировой академической общественности вышеуказанный рейтинг как совместный проект THE и QS прекратил свое существование, распавшись на два самостоятельных рейтинга. Компания QS по-прежнему составляет свою версию рейтинга [27], а Times Higher Education отныне сотрудничает с агентством Thomson Reuters. В сентябре 2010 года вышел их первый совместный рейтинг THE World University Rankings (THE). Таким образом, держателем сложившегося бренда THE осталась компания «TSL Education Ltd», а рейтинг QS перешел на положение конкурирующей системы оценки; в дальнейшем будем его обозначать QS. Здесь сразу укажем, что формальной датой рождения рейтинга QS является 2009 год, т.к. уже в этом году рейтинги THE и QS различались, хотя их окончательное организационное и правовое размежевание произошло лишь в 2010 году.
В 2004 году международное рейтинговое движение было поддержано лабораторией «Cybermetrics», входящей в исследовательскую группу Центра информации и документации Национального Исследовательского Совета Испании и опубликовавшей свой рейтинг Webometrics [11]; в дальнейшем будем его называть Web. Эта система оценивает присутствие вузов в виртуальном информационном пространстве и опирается в основном на Интернет-показатели университетских сайтов. В зону внимания Web попадает примерно 16-20 тыс. университетов, в результате анализа которых формируется итоговая таблица, включающая 4 тыс. вузов мира. Это в несколько раз больше, чем в других рейтингах. Например, ARWU анализирует только 3 тыс. вузов, а THE – 3-6 тыс. Как заявляют разработчики Web, его целью является не столько ранжирование университетов, сколько поддержка их инициатив по открытию информации к научным публикациям и другим академическим материалам. С этой целью проводится анализ вузов по четырем основным показателям, отображающим в основном исследовательскую активность университетов.
Следующий значительный шаг был сделан в 2007 году Советом по оцениванию и аккредитации в сфере высшего образования Республики Тайвань (Higer Education Evaluation and Accreditation Council of Taiwan), начавшего публикацию своего собственного рейтинга – Perfomance Ranking of Scientific Papers for World Universities) [12]; в дальнейшем будем его называть PRSP. В этом рейтинге представлено 500 ведущих университетов мира, оцененных в основном с точки зрения исследовательской деятельности в части написания научных статей.
Вышеперечисленные пять глобальных рейтингов – ARWU, THE, QS, Web и PRSP – выступают в качестве общепризнанных. Между тем начало столетия ознаменовалось многочисленными и во многом неудачными попытками построения других рейтингов, которые пока почти не учитываются мировым сообществом. Тем не менее, некоторые из них имеют потенциал для перехода в разряд полноценных участников соответствующего информационного рынка.
Например, в 2006 году американский журнал Newsweek опубликовал свой глобальный рейтинг университетов «The Top 100 Global Universities» [13]. Однако в дальнейшем этот рейтинг больше не воспроизводился, ознаменовав тем самым некую единичную попытку вхождения на рынок составителей рейтингов. С методической точки зрения этот рейтинг можно считать «вторичным», ибо он не основывался на собственной оригинальной системе оценки. Так, его составители при оценивании университетов использовали критерии двух других рейтингов, ставших к тому времени авторитетными, – ARWU и THE. Вес показателей рейтинга ARWU, составил 50%, еще 40% пришлось на показатели рейтинга THE, а оставшиеся 10% были отданы «оригинальному» показателю разработчика – оценке объема библиотечных фондов университетов. Несмотря на наличие описания используемой методологии, журнал Newsweek значения сводных и промежуточных оценок не приводит, что делает и сам рейтинг недостаточно прозрачными. Кроме того, гибридный характер методики рейтинга Newsweek не позволяет классифицировать его как оригинальный и самостоятельный продукт. Тем не менее, сама попытка усреднения глобальных рейтингов является симптоматичной и заслуживает внимания.
Появившийся в 2007 году французский рейтинг «Professional Ranking of World Universities», разработанный Ecole nationale superieure des mines de Paris, своей главной целью объявил оценку эффективности вузов с точки зрения востребованности и успешности карьеры их выпускников. Главный критерий оценки вуза – присутствие его выпускников в числе генеральных директоров крупнейших мировых компаний, представленных в ежегодном рейтинге Fortune Global 500 [18]. Данный университетский рейтинг по целому ряду причин является своеобразным и интересным. Во-первых, он также является «вторичным», так как базируется на данных другого рейтинга. Во-вторых, он оценивает не потенциальные возможности университетов и, следовательно, то, что они могут дать своим выпускникам, а то, что они им реально дают в смысле профессиональной карьеры. Между тем такая чрезмерно прагматичная оценка и узкая выборка лиц среди топ-менеджмента крупнейших компаний могут давать серьезные смещения искомых оценок.
Еще одной попыткой оценить и сравнить деятельность университетов является создание в 2009 году в рамках российско-армянского проекта рейтинга «АркаЛер» [17]. Этот рейтинг также можно отнести к категории Интернет-рейтингов, так как место (ранг) университета определяется как его позиция в мировом виртуальном информационном образовательном пространстве путем расчета обобщенного индекса виртуального интеллектуального капитала (ОИВИК). ОИВИК выводится на основе измерения и оценки так называемых нормализованных индексов «качества и востребованности» веб-сайтов университетов с помощью индексов цитирования, выявленных из скрытых данных глобальных поисковых систем как в англоязычном, так и в русскоязычном образовательном сегменте Сети. По словам разработчиков, в рейтинге «АркаЛер» впервые идентифицируется не столько критерий качества образования, сколько обобщенный критерий качества виртуального интеллектуального капитала университета по следующим компонентам: человеческий капитал, организационный капитал и капитал отношений. Данный рейтинг в динамике определяет конкурентоспособность университетов, идентифицирует потенциал их возможных успехов и достижений и не зависит от предпочтений экспертов (российских и зарубежных), подверженных различным влияниям. Однако и этот рейтинг грешит отсутствием толкования используемых показателей, пояснениями о том, чему равна и как формировалась выборка вузов, как и когда проводился сбор и анализ информации.
В 2010 году в рамках проекта «4 International Colleges & Universities» был создан еще один виртуальный рейтинг «World Universities Web Ranking» [14]. По словам организаторов рейтинга, целью его создания является оценка около 10 тыс. аккредитованных университетов и колледжей из 200 стран мира на основе популярности их веб-сайтов. Рейтинг учитывает обращения к таким популярным поисковым системам, как Google, Yahoo и Alexa. Недостатком данного рейтинга является отсутствие четкой методологии, оценочных весов, сводных и промежуточных оценок. Главное же состоит в том, что по своей методической основе данный рейтинг является незначительной аранжировкой более раннего рейтинга Webometrics, а потому также попадает в категорию «вторичных». Однако и это еще не все. Дело в том, что участники проекта «4 International Colleges & Universities» сохраняют свое инкогнито – не ясно, кто и из какой страны осуществляет сбор и обработку информации. Так, на главной странице сайта есть рубрика «Контакты», которая ведет только на страницу для заполнения почтового ящика; обращения же по указанному адресу с целью получения большей информации остаются без ответа [15]. Дж.Маслен (G.Maslen) отмечает, что согласно докладу «Нью-Йорк таймс», веб-сайт был произведен в Сиднее [15]. Однако обращение на сайт CY-PR.com, с помощью которого можно проанализировать любой портал по его адресу, показало, что в качестве владельца сайта зарегистрирован Фабио Фатуцо (Fabio Fatuzzo), регистратором сайта является Калифорнийская корпорация Abacus America, а сервер располагается в США [16]. Что касается выпуска рейтинга, то известно, что он обновляется два раза в год – в январе и в июле. Однако на сайте отсутствуют архивные данные, в связи с чем сложно установить, с какого момента времени «World Universities Web Ranking» выходит, хотя сам сайт www.4icu.org был зарегистрирован в 2005 году [16]. Такая совокупность фактов говорит о полулегальном статусе проекта, что, впрочем, не мешает многим университетам ориентироваться на его рейтинг.
Рейтинги «АркаЛер», Web и «World Universities Web Ranking» составляют группу Интернет-рейтингов, что свидетельствует о большой популярности методологии, лежащей в их основе.
С 2009 года независимым агентством «РейтОР» при консультационной поддержке Московского государственного университета (МГУ) им. М.В.Ломоносова публикуется российский рейтинг ведущих университетов мира «Global Universities Ranking»; в дальнейшем будем называть его GUR. Основной особенностью этого рейтинга является ориентация на качество образования как некой комплексной характеристики деятельности вуза, основанной на общественном признании учебной и научной работы, компетентности преподавательского состава, наличии современной материально-технической базы и востребованности выпускников на рынке труда. По каждой характеристике оценивается определенное количество показателей, что приводит к минимизации весового коэффициента каждого из них. По мнению разработчиков, это позволяет избегать перекосов и добиваться комплексности оценки деятельности вузов [19]. Учитывая, что GUR возник гораздо позже основных университетских рейтингов, его методология в той или иной степени аккумулирует все ключевые факторы, а потому может считаться одной из наиболее современных и адекватных .
Кроме того, продолжаются попытки создания обобщенных и более объективных рейтингов университетов мира. Так, ожидается появление в 2011 году Комплексного глобального университетского рейтинга (Multi-Dimensional Global University Ranking), разрабатываемого по заказу Европейской Комиссии, методология составления которого пока не обнародована.
2. Университетские рейтинги как элемент экономической политики
Относительно короткая новая история существования глобальных университетских рейтингов показывает, что данный информационно-аналитический инструмент постепенно превращается в один из значимых элементов конкурентной борьбы и образовательной политики. Проиллюстрируем данный тезис некоторыми яркими примерами.
Прежде всего, вернемся к попытке создания международного рейтинга журналом Asiaweek, который опубликовал свои первые рейтинги университетов Азиатско-Тихоокеанского региона в 1997 и 1998 гг. Вслед за этим 35 университетов отказались от участия в опросе 1999 г. Более половины из них были из Японии и Китая. Бойкот привел к фактическому прекращению инициативы. В основе такой реакции лежали, по крайней мере, три причины. Первая – гипертрофированные амбиции многих вузов-аутсайдеров, которые были оскорблены своим низким рейтингом. Вторая – коллизии в геополитике Китая, который, выступая за присоединение Тайваня, был расстроен участием в рейтинге его университетов. Третья – непомерная гордыня вузов-лидеров. Например, Токийский университет, занимавший каждый раз первое место в рейтингах предыдущих лет, также отказался от участия в рейтинге 1999 г.; по мнению его ректора Hasumi Shigehiko, образование и исследования его университета и других вузов просто не сопоставимы [1].
Таким образом, уже в конце XX века глобальные университетские рейтинги инициировали нездоровую политическую активность некоторых стран и конкуренцию между университетами. Однако уже в начале следующего столетия в Японии пришли к выводу, что национальные рейтинги приносят пользу, вынуждая к систематическому сбору данных и их сопоставительной оценке, а также ведут к реализации важных реформ в направлении улучшении качества [1]. Нечто похожее постепенно происходит и в отношении глобальных рейтингов.
Не менее характерный пример связан с Новой Зеландией, два университета которой в марте 2004 г. обратились к правительству с просьбой о недопущении публикации международного рейтинга, в котором их место по сравнению с британскими и австралийскими конкурентами оказалось ниже; эта просьба была удовлетворена. Ректоры были обеспокоены тем, что рейтинги негативно повлияют на их способность привлекать иностранных студентов, обучающихся на платной основе. В конечном счете, правительство разрешило опубликовать только рейтинги национальных высших учебных заведений, без сравнения их с зарубежными конкурентами [1].
Надо сказать, что университеты в развивающихся странах, как правило, страстно желают превратиться в университеты «мирового класса», часто ставя своей целью получить признание среди лучших университетов по международным рейтингам. По-видимому, именно этим обстоятельством были вызваны волнения в сентябре 2005 г. в Малайзии, когда по результатам публикации рейтинга THE стало известно, что два лучших университета страны оказались в нем почти на 100 мест ниже по сравнению с предыдущим годом. Эта новость произвела эффект разорвавшейся бомбы. Несмотря на то, что указанное падение объяснялось в основном изменением методики оценки, оно было воспринято столь болезненно, что были даже внесены предложения о создании государственной комиссии по расследованию обстоятельств случившегося [20], а ректор одного из этих университетов подал в отставку [26]. Столь бурная реакция объясняется повышенным вниманием Малайзии к развитию экономики знаний с фокусировкой на роли университетов в этом процессе. Озабоченность правительства и общественности по поводу рейтингов университетов означает также и признание того, что экономический рост и конкурентоспособность страны на глобальном уровне все больше зависят от знаний и университетской системы.
Чрезвычайно высокую адаптивность к данным глобальных университетских рейтингов демонстрирует Великобритания. Например, в 2004 г. произошло объединение Манчестерского викторианского университета и Научно-технического института Манчестерского университета, в результате чего появился самый крупный университет страны, официально заявленная цель которого состоит в том, чтобы к 2015 г. оказаться среди 25 лучших вузов мира. С этой же целью было осуществлено слияние Кардиффского университета и Южно-Уэльской школы медицины. Делается это во многом из-за того, что в международных рейтингах такой важный параметр, как, например, количество научных публикаций, не зависит от масштаба организации [20].
Довольно амбициозные планы в отношении своей университетской системы вынашивает Ирландия. Так, ожидается, что в обозримой перспективе не менее двух ирландских вузов войдут в Топ-100 глобальных рейтингов [26]. Чуть более скромные планы характерны для Правительства Казахстана, которое намерено создать новый университет мирового класса, способный в недалеком будущем конкурировать с ведущими вузами Азии и Восточной Европы [26]. К сказанному можно добавить, что большинство рейтингов измеряет ресурсные показатели, что заставляет университеты инвестировать средства в строительство и разработку новых программ. Тем самым просматривается роль рейтингов в качестве акселератора развития университетских систем.
Во Франции ежегодная публикация результатов рейтинга ARWU уже традиционно вызывает одновременно негодование и озабоченность. Французские работники сферы образования сетуют на то, что в данной системе рейтинговой оценки предпочтение отдается англосаксонским университетам и никак не учитывается необычное деление вузов Франции на элитные высшие школы и массовые университеты [20]. Озабоченность же связана с тем, что ни один из французских университетов не попадает в группу 30 лучших вузов мира; в 2009 и 2010 гг. Франция заняла в ARWU лишь 40-е и 39-е место соответственно. Если бы Франция по примеру Великобритании и США воспользовалась политикой слияний университетов, то критическая масса ученых увеличилась бы и французские вузы оказались бы на более высоких местах в ARWU. Однако этому мешают традиционные для Франции слабая финансовая база, жесткие механизмы администрирования и устаревшие методы хозяйственного управления. Именно этими объективными обстоятельствами обусловлена низкая адаптивность французских университетов к глобальным рейтингам.
Тем не менее, Франция в целом довольно конструктивно реагирует на глобальные рейтинги. Хорошим примером тому является полемика, начатая в стране после первой публикации рейтинга ARWU. После того, как было обнаружено, что лучший университет Франции занял 65-е место, газета Le Monde выпустила статью под заголовком «Большие страдания французских университетов». При этом ни один из ректоров университетов или профсоюзных лидеров, дававших интервью, не критиковал ни принцип расчета, ни методологию рейтинга. Вместо этого они сфокусировались на проблемах, с которыми столкнулись их вузы, в особенности на недостатке бюджетного финансирования как одной из причин упадка университетской системы во Франции [1].
В некоторых случаях институт рейтингов вклинивается не только в стратегическую, но и в оперативную работу университетов. Например, в Польше составители рейтингов приглашаются на ученые советы многих вузов, что облегчает ректорам задачи анализа ситуации и реализации прогрессивных изменений. Есть случаи и «слияния» кадров двух институтов. Так, один из разработчиков национального университетского рейтинга Польши Марек Роцки возглавил государственную комиссию страны по аккредитации вузов [26].
Однако помимо позитивного влияния рейтингов на политику университетов уже сейчас просматриваются и деструктивные тенденции. Так, некоторые вузы пытаются манипулировать данными и ищут механизмы воздействия на оценщиков в целях поднятия позиции своего вуза в различных рейтингах, не особенно заботясь о действительном развитии организации и применении лучших практик. Известны прецеденты манипулирования данными некоторыми университетами США для улучшения позиций в национальных и международных рейтингах [26].
Приведенные выше примеры характеризуют прямую связь между рейтингами и экономикой, т.е. влияние рейтингов на политику университетов и национальных правительств. Однако сегодня уже есть примеры и обратной связи, когда университеты влияют на процесс разработки глобальных рейтингов.
Так, в 2009-2010 году российские вузы буквально взбунтовались против международных университетских рейтингов, полагая, что отечественная система образования в мире сильно недооценена. В результате этого Российский союз ректоров (РСР) потребовал пересмотреть существующие критерии оценки вузов. Итогом этого явилось несколько раундов встреч между представителями МГУ и рейтинга THE. В ноябре 2009 г. в МГУ состоялась первая встреча, в которой приняло участие около сотни ректоров из разных университетов России и СНГ, европейские эксперты и представители THE. В 2010 г. на промежуточной встрече в Варшаве состоялось заседание международной группы экспертов IREG, на которую была возложена обязанность по проверке правильности составления рейтинга; МГУ был принят не только в члены этой комиссии, но и в ее правление. Впоследствии, в 2010 г., в Москве прошла еще одна встреча представителей российского академического сообщества с составителями глобального рейтинга THE – изданием «Times Higher Education» [21].
Непосредственным итогом состоявшегося диалога стало три события. Первое – подписание Коммюнике РСР и издания «Times Higher Education», в соответствии с которым РСР является главным оператором коммуникации вузов с британской стороной. Было принято решение, что по такой же схеме будут строиться отношения российских вузов с операторами других глобальных рейтингов. Тем самым возникла и оформилась цивилизованная форма интерфейса между российскими вузами и международным рейтинговым сообществом. Второе – переговоры с МГУ внесли свою лепту в решение руководства «Times Higher Education» об отказе от сотрудничества с агентством «Quacquarelli Symonds». Оператор «Times Higher Education» вместо «Quacquarelli Symonds» взял в партнеры компанию «Thomson Reuters», обладающую большим авторитетом в проведении исследований [21]. Третье – разработчики THE внесли определенные коррективы в методику рейтингования университетов и скорректировали данные об МГУ [21]. По ходу дела заметим, что сам факт разработки российского глобального рейтинга GUR при консультативной поддержке МГУ явился своеобразным актом протеста против уже имевшихся глобальных рейтингов.
Надо сказать, что рейтинговая активность тесно переплетена с мировой политикой. Например, разработка уже упоминавшегося нами Тайваньского рейтинга вузов PRSP явилась ответом на ставший широко известным опыт континентального Китая по построению Шанхайского рейтинга ARWU. Однако нечто похожее происходит и в более глобальном масштабе. Например, некоторые аналитики считают, что наблюдаемая в мире активизация деятельности по оценке вузов и формированию рейтингов скрывает за собой очередную попытку Евросоюза догнать США [26].
Надо сказать, что обилие рейтингов уже само по себе ставит проблемы, требуя у их потребителей определенных навыков по их прочтению. Например, сегодня только в России ежегодно выходит более 30 национальных рейтингов вузов; только на сайте независимого рейтингового агентства «РейтОР» имеется около 25 таких рейтингов [19]. Сейчас добавляется еще и проблема плюрализма глобальных рейтингов. Все это предъявляет повышенные требования к культуре взаимодействия вузов и абитуриентов, в том числе через такое промежуточное звено, как рейтинги. В этой связи представляет интерес опыт китайских аналитиков, которые подметили двухступенчатый алгоритм работы абитуриентов с глобальными рейтингами. Так, изучая соответствующие таблицы, абитуриенты сначала выбирают страну, в которой желали бы получить образование (первый шаг), а затем уже определяются с университетом в этой стране (второй шаг) [26]. М.Кларк (M.Clarke) в этой связи говорит о трехступенчатом алгоритме: решение продолжить учебу и определение профессии; выбор географического места учебы; определение конкретного вуза [33]. Опыт показывает, что для получения магистерских и докторских степеней можно говорить о четвертой ступени, состоящей в выборе наиболее привлекательного профильного департамента (факультета) в уже отобранной группе университетов. Некоторые специалисты говорят и о нулевой ступени, начинающейся с выбора школы той или иной страны и предопределяющей дальнейший выбор университета [40-41].
Уже сейчас некоторые аналитики отмечают довольно интересную связь между национальными и глобальными рейтингами. Так, большинство университетов, ранжированных в Top-100 по международным рейтингам ARWU и THE, расположены в странах, где проводится активная работа по составлению национальных рейтингов вузов: США, Великобритания, Канада, Австралия, Япония и Китай. Аналитики полагают, что осведомленность в рейтингах и хорошо развитая система сбора и подачи данных могут помочь подняться вверх в международных табелях ранжирования.
В целом же можно констатировать, что в мире уже сложилась новая профессия – рэнкер (ranker), т.е. составитель рейтингов. Гильдия национальных и международных оценщиков вузов постепенно укрепляет свои профессиональные позиции, в том числе за счет интенсификации связей с представителями наукометрии. Некоторые эксперты даже считают, что в недалеком будущем произойдет конвергенция рейтинговых систем, разработанных для оценки вузов, с наукометрическими системами. Это позволит перейти на совершенно иной качественный уровень и измерять множество пока еще трансцендентных, трудно формализуемых понятий. Эта гипотеза подтверждается такими проектами, как разработка многомерных, картографических и персонифицированных рейтингов [26].
Параллельно происходит формирование международных институтов рэнкеров. Так, в 2004 г. Европейским центром высшего образования UNESCO-CEPES (Бухарест) и Институтом политики в сфере высшего образования (IHEP) (Вашингтон) на первой конференции, состоявшейся в Вашингтоне (США), была создана Международная группа экспертов по ранжированию (International Ranking Experts Group – IREG) Международной обсерватории по академическому ранжированию и квалификациям (International Observatory on Academic Ranking and Excellence). Вторая конференция прошла в 2006 г. в Берлине (Германия) и на ней были сформулированы известные «Берлинские принципы ранжирования вузов». Третья конференция состоялась в 2007 г. в Шанхае (Китай), где активное участие приняли представители наукометрических (библиометрических) систем – Web of Science (Thomson Reuters) и Scopus (Elsevier) . В 2009 г. в Астане (Казахстан) состоялась четвертая конференция IREG. На указанных конференциях с впечатляющим представительством из самых разных стран мира происходит обмен информацией и мнениями между разными игроками образовательного рынка [26].
В этом же ключе в 2009 г. началась разработка новой многомерной всемирной системы рейтингов университетов, к которой по заказу Европейской комиссии приступил созданный специально для этого консорциум CHERPA, результаты деятельности которого, как ожидается, появятся в 2011 году.
Все эти события позволяют экспертам говорить о рождении новой разновидности международной бюрократии, буквально живущей рейтингами и оценками вузов и других социальных систем. В соответствующих кругах уже бытует термин «уполномоченный по информации». Деятельность рэнкеров активно поддерживается органами государственного и надгосударственного управления (например, Еврокомиссией, ООН и ЮНЕСКО) [26].
Таким образом, глобальные университетские рейтинги уже очень крепко вплетены в реальную университетскую жизнь и национальную политику многих стран, став заметной силой на рынке образовательных услуг. В основе этой отчасти даже гипертрофированной роли рейтингов лежит правило отношений вуза с внешним миром, сформулированное Вальдемаром Сивинским (Waldemar Siwinski): «Дела твои идут не так, как ты думаешь, а так, как их воспринимает общественность» [26].
3. Особенности составления глобальных университетских рейтингов
Далее мы рассмотрим только шесть глобальных рейтингов, которые, как уже отмечалось, можно считать наиболее репрезентативными, ибо они базируются на методологии, которая в той или иной степени присуща всем остальным существующим рейтингам.
Как правило, хороший рейтинг предполагает учет разных групп факторов университетской жизни. В дальнейшем эти группы подлежат суммированию посредством соответствующих весовых коэффициентов, которые во всех рейтингах определяются экспертно и в значительной степени субъективно. В защиту такого «нестрогого» подхода можно сказать лишь то, что никакой эффективной альтернативы у него нет. Все многообразие групп факторов и весовых оценок для шести рейтингов сведено в табл.2.
Из табл.2 видно, что все рейтинги довольно сильно различаются и набором оцениваемых факторов, и системой весовых коэффициентов. Данный факт уже сам по себе говорит в пользу того, что, несмотря на жесткую конкуренцию глобальных рейтингов на рынке информации, они должны восприниматься в качестве комплиментарных, а не взаимозаменяемых информационных агрегатов. В этой связи можно говорить об определенной специализации рейтингов.
Рейтинг | Показатель | Вес, % |
---|---|---|
РЕЗУЛЬТАТЫ ИССЛЕДОВАНИЙ | ||
ARWU | Число статей, опубликованных в журналах Nature и Science | 20 |
Число статей, индексируемых в базах данных Science Citation Index Expanded и Social Sciences Citation Index (Thomson Reuters) | 20 | |
THE | Среднее число цитирований в расчете на одну статью (нормализованное по областям науки, по данным базы Web of Science, Thomson Reuters) | 37,5 |
Объем и репутация научно-исследовательских работ | 30 | |
Доход от исследований | 2,5 | |
QS | Среднее число цитирований в расчете на одну штатную академическую единицу (по данным базы Scopus, Elsevier) | 20 |
GUR | Уровень организации исследовательской работы | НД |
Web | Число результатов поиска по сайту вуза научной поисковой системой Google Scholar и число цитирований найденных документов | 12,5 |
Число «ценных» файлов, размещенных на сайте (число файлов с результатами исследований четырех форматов: PDF, PS, DOC и PPT) | 12,5 | |
PRSP (все показатели из баз компании Thomson Reuters) | Число статей за последние 11 лет | 10 |
Число статей за текущий год | 10 | |
Число цитирований за последние 11 лет | 10 | |
Число цитирований за последние 2 года | 10 | |
Отношение числа цитирований к числу статей за последние 11 лет | 10 | |
Индекс Хирша (h-index) статей университета за последние 2 года | 20 | |
Число высокоцитируемых статей за 11 лет (верхний 1% наиболее цитируемых статей для заданного года публикации и области науки) | 15 | |
Число статей в высокоцитируемых журналах за последний год (учитываются журналы, входящие в верхние 5% по импакт-фактору в своей области науки) | 15 | |
КАЧЕСТВО ОБРАЗОВАНИЯ | ||
ARWU | Общее число выпускников вуза, получивших Нобелевскую премию или медаль Филдса | 10 |
THE | Оценка преподавания и условия обучения | 30 |
QS | Индекс академической репутации | 40 |
Отношение профессорско-преподавательского состава к числу студентов | 20 | |
Индекс репутации вуза среди работодателей | 10 | |
GUR | Уровень обеспеченности ресурсами | НД |
Уровень социально значимой деятельности выпускников | НД | |
Уровень организации учебной работы | НД | |
УРОВЕНЬ ПРЕПОДАВАТЕЛЕЙ | ||
ARWU | Общее число работников вуза, получивших Нобелевскую премию или медаль Филдса | 20 |
Число часто цитируемых исследователей, работающих в 21 предметной области (250* лучших ученых по базе данных Web of Knowledge) | 20 | |
GUR | Уровень профессиональной компетенции преподавательского состава | НД |
Web | Число уникальных внешних ссылок на страницы сайта университета, найденных через поисковые системы Yahoo Search, Live Search и Exalead | 50 |
АКАДЕМИЧЕСКАЯ ПРОИЗВОДИТЕЛЬНОСТЬ | ||
ARWU | Показатель, определяемый как отношение суммарного количества баллов по всем индикаторам к численности академического персонала полного рабочего дня | 10 |
МЕЖДУНАРОДНАЯ ДЕЯТЕЛЬНОСТЬ | ||
QS | Доля иностранных преподавателей от общей численности преподавательского состава | 5 |
Доля иностранных студентов от общего контингента обучающихся | 5 | |
GUR | Уровень организации международной деятельности | НД |
РАЗМЕР | ||
Web | Число страниц сайта, получаемых в результате поиска системами Google, Yahoo, Live Search и Exalead | 20 |
Однако состав групп факторов является, как правило, вторичным агрегированием, а до этого происходит первичное агрегирование данных внутри каждой группы. Здесь возникает проблема объединения показателей не только разного масштаба, но и разных единиц измерения. В этой связи используются, как правило, две основные процедуры нормирования частных оценок. Первый способ, являющийся более простым и чаще применяемым, состоит в нормировании значений показателя вуза по максимально полученному значению, которое приравнивается к 100%. Второй способ, характерный для рейтингов QS и THE с 2007 года, состоит в применении процедуры Z-агрегирования, когда из первоначального значения для каждого вуза (xi) вычитается среднее арифметическое по всем вузам (xср) и результат делится на среднеквадратическое отклонение (σ), т.е.
Большое значение при работе с глобальными рейтингами имеет их методическая и информационная открытость. С этой точки зрения все рейтинги довольно сильно различаются между собой. Здесь различия распространяются на: полноту архива рейтинга (по годам); полноту самого рейтинга (по вузам); полноту описания методики. Например, рейтинг QS имеет хороший архив за 2005-2010 гг., однако уровень охвата вузов постоянно «плавает»: 2005 г. – 500 вузов, 2006-2007 гг. – 200, 2008 г. – 603, 2009 г. – 620, 2010 г. – 643. Полный рейтинг по всему кругу анализируемых вузов на сайте отсутствует, также как и исходная статистика для итоговых оценок. Рейтинг ARWU также имеет открытый архив за 2003-2010 гг. по основному массиву в 500-510 университетов. Нечто похожее наблюдается и для рейтинга PRSP, который имеет архив за 2007-2010 гг. для 500 лучших вузов. Рейтинг THE обладает полным архивом по усеченному кругу университетов – Top-200. При этом часть информации доступна только в платном приложении для iPhone APP. Рейтинг Web имеет урезанный архив только за 2009-2010 гг., причем за эти годы за январь и июль даются рейтинги Top-500, а за 2010 год – еще и полный рейтинг для 12003 вузов. Для рейтинга GUR в силу его короткой истории имеются данные только за 2009 г., однако наблюдается несоответствие показателей в описанной методологии и в приведенной таблице рейтинга; кроме того, на сайте отсутствуют величины весовых коэффициентов в методике расчета.
Таким образом, практически все рейтинги имеют ограниченную информационную и методическую транспарентность, которая затрудняет их практическое использование. Почти для всех глобальных рейтингов характерно раскрытие результатов ранжирования только для очень ограниченного круга лучших университетов; остальной массив остается для внутреннего пользования разработчика. Данный факт наводит на мысль, что сами разработчики рейтингов гораздо больше озабочены борьбой сильнейших вузов с политическим подтекстом, нежели задачей простого информирования общественности о полном состоянии дел в сфере высшего образования.
Сегодня много упреков в адрес рэнкеров идет по линии персонификации систем, т.е. в отношении того, как проводятся опросы о качестве обучения в университетах. Например, Ф.Бэти (Ph.Baty) упрекал рейтинг QS в том, что в 2008 г. он использовал выборку в 3500 респондентов, по которой трудно дать объективную оценку изучаемых университетов . Причем по Малайзии эта цифра составляет лишь 180 человек, а по Великобритании – 563. Представители QS ответили, что в 2009 г. они уже использовали выборку в 9386 респондентов. Однако аналитики отмечают, что 2/3 этой величины составляли респонденты, участвовавшие в опросах 2007 и 2008 гг., а это вызывает дополнительные вопросы о правомерности подобной процедуры. Кроме того, критиками отмечается тот факт, что, например, число респондентов из Ирландии было больше, чем из России, также как из Гонконга больше, чем из Японии [31]. Судя по всему, калибровка опросных методик будет продолжаться еще довольно длительное время.
Вызывают вопросы и конкретные показатели, фигурирующие в рейтинговых методиках. Например, в рейтинге PRSP в табл.2 фигурирует h-индекс (индекс Хирша), оценивающий одновременно публикационную активность и цитируемость исследователя. Однако сегодня уже имеется множество работ, которые предлагают разные модификации этого показателя и демонстрируют ограниченность его канонического варианта [34]. Манипулируя только одним этим показателем, можно менять итоги ранжирования.
Любопытно, что многие критические замечания в адрес качества рейтингов идут со стороны самых рэнкеров. Например, Д.Джоббинс (D.Jobbins) в своем обзоре приводит взаимные нападки представителей разных рейтинговых систем как образец развернувшейся «рейтинговой войны» [32].
Надо сказать, что все недочеты, которые со временем выявляются в глобальных рейтингах, постепенно устраняются в силу либеральности и открытости политики рейтинговых агентств. Однако проблема все же остается в силу того, что нынешние системы оценки являются недостаточно «выпуклыми». Например, рейтинговые баллы Стенфорда (Stanford University) и Принстона (Princeton University) в рейтинге THE 2010 г. составляют 94,3 и 94,2 соответственно. Этим обусловлено их 4-ое и 5-ое место. Тем самым разница в рейтинговом балле двух вузов составляет 0,1 пункта, т.е. она практически неуловима. При такой «плотной» конкуренции университетов любые методические подвижки могут легко приводить к их рокировке в искомом таблоиде.
4. Проблема весовых коэффициентов в глобальных университетских рейтингах
Попытка стандартизации системы оценки вузов является объективной потребностью, но достичь ее, как правило, не удается. Опыт показывает, что есть такие аспекты функционирования университетов, которые либо нельзя, либо очень трудно учесть в формальных процедурах. Результатом этого является смещение истинных оценок в глобальных рейтингах. Методологически эта проблема эквивалентна проблеме выбора вектора весовых коэффициентов. Для иллюстрации данного тезиса рассмотрим некоторые примеры, получившие широкий резонанс в литературе и научных кругах.
1. Лидирующие позиции занимают англоговорящие вузы. Например, в рейтинге ARWU 2010 г. 65 университетов из списка Тop-100 находятся в англоязычных странах, в рейтинге THE – 67. Таким образом, уже сложилась система лидирования англоязычных стран и вузов, осуществляющих преподавание на английском языке (табл.3).
СТРАНА | ARWU | QS | THE | Web | PRSP | GUR* |
---|---|---|---|---|---|---|
США | 54 | 31 | 53 | 71 | 56 | 48 |
Великобритания | 11 | 19 | 14 | 5 | 8 | 12 |
Япония | 5 | 5 | 2 | 2 | 4 | 8 |
Германия | 5 | 5 | 3 | 1 | 4 | 6 |
Канада | 4 | 4 | 4 | 8 | 6 | 4 |
Швеция | 3 | 2 | 2 | 0 | 3 | 1 |
Франция | 3 | 2 | 3 | 1 | 2 | 2 |
Австралия | 3 | 7 | 5 | 1 | 3 | 5 |
Швейцария | 3 | 3 | 4 | 3 | 2 | 4 |
Нидерланды | 2 | 4 | 0 | 1 | 5 | 2 |
Дания | 2 | 2 | 0 | 0 | 1 | 1 |
Израиль | 1 | 0 | 0 | 0 | 0 | 0 |
Норвегия | 1 | 1 | 0 | 2 | 0 | 0 |
Финляндия | 1 | 1 | 0 | 1 | 1 | 0 |
Россия | 1 | 1 | 0 | 0 | 0 | 3 |
Бельгия | 1 | 1 | 0 | 0 | 1 | 1 |
Китай | 0 | 2 | 3 | 0 | 0 | 0 |
Гонконг | 0 | 3 | 2 | 1 | 0 | 0 |
Ирландия | 0 | 1 | 2 | 0 | 0 | 0 |
Южная Корея | 0 | 2 | 2 | 0 | 1 | 1 |
Сингапур | 0 | 2 | 1 | 0 | 1 | 1 |
Новая Зеландия | 0 | 1 | 0 | 0 | 0 | 0 |
Тайвань | 0 | 1 | 0 | 0 | 0 | 1 |
Бразилия | 0 | 0 | 0 | 0 | 1 | 0 |
Италия | 0 | 0 | 0 | 1 | 1 | 0 |
Австрия | 0 | 0 | 0 | 1 | 0 | 0 |
Мексика | 0 | 0 | 0 | 1 | 0 | 0 |
Данная тенденция поддерживается и давно сформировавшейся системой научного цитирования, при которой на Западе имеется пул журналов, публикации в которых учитываются при рейтинговании. Кроме того, существует негативная практика, когда авторы этих журналов ссылаются друг на друга. Между тем статьи в некоторых национальных журналах могут не уступать по научному уровню работам, опубликованным за рубежом, но при этом они остаются за рамками систем цитирования. Именно этот факт лег в основу предложенной МГУ системы по расширению научных источников для расчета индекса цитируемости [21]. Иными словами, на повестку дня выносится проблема языковой либерализации глобальных университетских рейтингов. Хотя в таком требовании содержится доля справедливости, в целом оно представляется нереалистичным, но даже его принятие вряд ли существенно изменит сложившуюся диспозицию университетов.
Данные табл.3 показывают плохую сопоставимость итоговых результатов: в сотню лучших вузов одних рейтингов входят вузы из стран, которые отсутствуют в Тop-100 других рейтингов (Россия, Италия, Новая Зеландия, Китай и т.д.). Однако все выступления против засилья английского языка можно воспринимать в качестве запоздавших политических эмоций. Так, Л.Борганс (L.Borghans) и Ф.Кёрверс (F.Corvers) отмечают уже состоявшийся факт «американизации» европейского образования, когда университеты многих стран переходят на английский язык [29]. Вместе с тем, справедливости ради следует отметить, что даже сами разработчики рейтингов признают факт избыточного веса английского языка; представители THE даже делают попытки хотя бы частично нейтрализовать этот недостаток [21].
2. Лидирующие позиции занимают вузы, отличающиеся исследовательской активностью. Данный факт дал основание Т.Бейтсу (T.Bates) утверждать, что глобальные университетские рейтинги – это реальность, основанная на мошенничестве. Т.Бейтс, в частности, говорит, что абитуриенты и их родители, пользующиеся такими рейтингами, наверняка будут одурачены [30]. По его мнению, рейтинги – это аналог рулетки Понци: вузы все больше инвестируют в исследования, чтобы повысить свой рейтинг и т.д. Тем самым надувается «исследовательский пузырь», который может и не отражать истинного качества образования. Например, рейтинг PRSP можно назвать «одномерным», т.к. в нем кроме исследовательских индикаторов нет вообще никаких других показателей. Хотя в целом этот вопрос является дискуссионным, есть основание полагать, что весовые коэффициенты исследовательской деятельности все-таки несколько завышены и требуют дополнительного изучения [37].
3. Противоречивость и неустойчивость рейтинговых оценок. Еще одной характеристикой рассматриваемых рейтинговых систем является противоречивость и неустойчивость их оценок. Например, в британском рейтинге THE МГУ в 2004 г. занимал 92-ю позицию, в 2005 – 79-ю, в 2006 – 93-ю, а в 2007 г. резко упал на целых 138 пунктов, оказавшись на 231-ой позиции (табл.4). Такие скачки рейтинга ведущего российского вуза не могут быть объяснены объективными обстоятельствами. Трудно объяснить и скачки МГУ в рейтинге ARWU в 2003 и 2007 годах. Здесь мы сталкиваемся с чисто оценочными эффектами, связанными с несовершенством системы сбора информации о вузах. Известно, что рэнкеры периодически меняют методику учета тех или иных сторон деятельности университетов, а иногда получают новую или существенно скорректированную информацию о некоторых вузах. Параллельно наблюдаются перепады оценок в разных рейтингах, как например, 5-е место МГУ в 2009 году в рейтинге GUR и 227 – в рейтинге PRSP. Здесь в полной мере проявляется роль весовых коэффициентов, за счет которых некоторые достижения вузов оказываются гипертрофированными. В этой связи следует еще раз напомнить тот настораживающий факт, что в рейтинге GUR не указаны весовые коэффициенты (табл.2). Не исключено, что скрытая шкала весов в нем была построена таким образом, что «раздувала» некоторые объективные, но нетипичные для других вузов достижения МГУ.
Рейтинг | 2003 | 2004 | 2005 | 2006 | 2007 | 2008 | 2009 | 2010 |
---|---|---|---|---|---|---|---|---|
ARWU | 102-151 | 66 | 67 | 70 | 102-151 | 70 | 77 | 74 |
QS- THES | - | 92 | 79 | 93 | 231 | 183 | 101 | 93 |
155 | - | |||||||
Web | - | - | - | - | - | 147 | 188 | 219 |
PRSP | - | - | - | - | 243 | 214 | 227 | 228 |
GUR | - | - | - | - | - | - | 5 | НД |
Приведенные примеры не исчерпывают те стороны жизни университетов, которые пока не нашли адекватного отражения в рейтинговых системах. Не меньшее значение, на наш взгляд, имеют и негативные текущие события в деятельности вузов, которые должны быть приняты во внимание разработчиками рейтингов. Например, в одном из московских вузов на протяжении пяти лет было зафиксировано три события: обнаружение пяти килограммов наркотиков; драка в общежитии между представителями милиции и иностранными студентами с последующим международным резонансом по линии МИД; взятие под арест проректора по экономике с поличным при получении взятки. Возникает вопрос: должны ли эти факты учитываться при построении национальных и глобальных рейтингов?
Сюда же могут быть отнесены и периодически повторяющиеся события массовых расстрелов людей психически больными студентами преимущественно в американских университетах. Если такие эксцессы повторяются, то должны ли вузы США получать понижающий коэффициент?
О серьезности влияния криминогенности на предпочтения абитуриентов говорят проведенные опросы иностранных студентов, обучающихся в России: в 2003 г. с проявлениями национализма и расизма столкнулось 51,5% опрошенных, а в 2005 г. – 53,8% [40-41]. Только один этот фактор может снизить популярность российских вузов без видимых изменений в глобальных рейтингах. Сегодня только один рейтинг – QS – использует в своем арсенале показатель доли иностранных студентов, который частично учитывают комфортность среды обучения в университетах. Однако это лишь косвенный учет среды, не позволяющий понять истинные причины успеха или неудачи того или иного университета в сфере интернационализации.
Есть и прямо противоположные факторы, которые пока не нашли отражения в рейтинговых системах – экологические, эргономические и эстетические. Например, перуанские чиновники считают, что «показатели существующих глобальных рейтингов не могут отразить всю красоту университетов Латинской Америки» [26]. При этом они ссылаются на тот факт, что четыре лауреата Нобелевской премии по экономике в свое время окончили университет Буэнос-Айреса. А некоторые американские университеты расположены в лесу, создавая непередаваемую обстановку для исследований и учебы. Должны ли эти аспекты учитываться в рейтингах?
Сегодня на эти вопросы ответов нет. Тем не менее, на наш взгляд, в современных системах рейтингования следует предусматривать специальный элемент типа «премия-штраф». Например, наличие суперкомпьютера, космических спутников и расширенной сетки читаемых курсов должно быть простимулировано в рейтинге премией в виде дополнительных баллов. И наоборот, пожары, стрельба на территории университета и участие администрации в криминальных событиях должно приводить к санкциям при составлении рейтинга в виде вычета определенного количества баллов. Такой подход позволил бы учитывать еще и культурную среду, сложившуюся в университетах, которая во многих случаях имеет решающее значение для получения хорошего образования. По крайней мере, постановка данных вопросов при дальнейшем совершенствовании рейтингов имеет право на существование.
В целом основой всех глобальных рейтингов является не только правильный набор факторов, но и правильная шкала весовых коэффициентов. Сегодня почти отсутствует критика используемых показателей, ибо все они являются достаточно адекватными и прозрачными; споры возникают лишь при обсуждении факторов, которые должны быть дополнительно включены в рейтинги. Между тем в научной литературе почти не поднимается вопрос об адекватности весовых коэффициентов. Можно, например, задаться таким вопросом: как изменится рейтинг PRSP, если веса при факторах «Число статей за последние 11 лет» и «Число статей за текущий год» будут не 10 и 10%, а 15 и 5% (что было бы вполне логично)? Не произойдет ли в этом случае принципиальной передвижки университетов по таблоиду?
Иными словами, речь идет об устойчивости рейтингов к небольшим изменениям весовых коэффициентов. Проверка рейтингов на чувствительность к изменениям весов должна стать главным тестом их работоспособности. К сожалению, пока такое тестирование не проводится и, более того, данный вопрос даже не ставится. На наш взгляд, данное направление диагностики глобальных рейтингов должно стать генеральным при дальнейшем совершенствовании их инструментария.
5. Направления использования глобальных университетских рейтингов
Практика использования глобальных рейтингов предполагает «первичную» и «вторичную» реакцию. Первая связана с ориентацией на данные рейтингов при выработке экономической стратегии и тактики хозяйствующих субъектов, вторая предполагает дальнейшую аналитическую обработку данных рейтингов для решения более тонких, как правило, исследовательских задач. «Первичные» приложения мы рассмотрели ранее, здесь же мы сфокусируем внимание на том, как рейтинги могут быть интегрированы в современный экономический анализ.
Нам известны четыре направления исследований, которые опираются на информацию, содержащуюся в глобальных рейтингах.
Первое направление связано с построением вторичных или производных рейтингов на базе существующих. Здесь речь идет о попытке построения некоего усредненного рейтинга по результатам частных рейтингов. При своей простоте данный подход позволяет устранить рассогласованность рейтингов, расширить используемую для оценки базу показателей, придать большую стабильность оценкам за счет снижения вероятности скачкообразных взлетов и падений вузов, а соответственно, повысить его достоверность. В основе такого подхода лежит идея о «включении» закона больших чисел. Если один рейтинг может дать сильные искажения в отношении каких-то университетов, то 5-7 независимых рейтингов вряд ли дадут большую системную ошибку. Следовательно, простейшая процедура усреднения оценок многих рейтингов позволяет элиминировать ошибки, присущие каждому частному рейтингу в отдельности.
Напомним, что в 2006 г. журнал Newsweek уже сделал попытку «усреднить» два рейтинга – ARWU и THE. К настоящему моменту можно отметить еще одну попытку построения усредненного рейтинга путем совмещения данных трех табелей – ARWU, Web и PRSP [22]. Алгоритм построения интегрального рейтинга представляет собой простое усреднение пронормированных (в процентном отношении от лидера) показателей каждого частного рейтинга. Впоследствии на основе данного интегрального рейтинга осуществлялась конвертация российского национального университетского рейтинга в глобальный. Полученные оценки показывают потенциальную международную котировку российских вузов [22]. Учитывая, что с момента проведения данных расчетов база глобальных рейтингов заметно расширилась, можно говорить о росте перспектив этого подхода.
Второе направление связано с совмещением региональных образовательных рейтингов страны с глобальными рейтингами. Такая работа была проведена применительно к российским регионам [23]. При этом было замечено, что в Top-500 глобальных рейтингов ARWU, THE, Web и PRSP фигурируют только четыре российских вуза: МГУ, Санкт-Петербургский (СПбГУ), Томский и Новосибирский университеты. Одновременно с этим именно Москва, Санкт-Петербург, Томская и Новосибирская области являются лидерами регионального образовательного рейтинга. Это позволяет предположить, что регионы, обладающие высоким образовательным потенциалом, способны обеспечивать по-настоящему качественное образование в вузах, находящихся на их территории [23]. Данный факт позволяет проводить расчеты экономических условий, которые должны быть созданы в том или ином регионе, чтобы он был способен обеспечивать университетское образование мирового класса.
Третье направление связано с оценкой на базе глобальных рейтингов конкурентоспособности университетов. Можно предположить, что стоимость обучения в университете должна зависеть от качества даваемого в нем образования, которое в свою очередь определяется количеством набранных им рейтинговых баллов. Тогда показателем конкурентоспособности вуза служит традиционный показатель «качество/цена». Это эквивалентно сравнению для разных университетов показателя стоимости одного рейтингового балла, исчисляемого как отношение стоимости одного года обучения к количеству набранных рейтинговых баллов. Апробация такого подхода была осуществлена на примере МГУ, СПбГУ и американского университета Rutgers [24]. Простота этого подхода является чрезвычайно привлекательной, однако другие исследователи подвергли его критике, обращая внимание на то обстоятельство, что ценовая политика университетов слишком сильно зависит от государственной политики в сфере образования [25].
Четвертое направление связано с уяснением общей диспозиции глобальных рейтингов с точки зрения их популярности, корректности и адекватности. Данное направление предполагает изучение общественного мнения по вопросам информированности и доверия населения существующим рейтингам, а также оценку тех критериев, которые заложены в методологию их разработки. Количественные оценки подобных показателей приводятся, в частности, Д.Смитом (D.N.Smith) [39]. В перспективе результаты исследований по данному направлению могут быть использованы для соизмерения общественной «силы» рейтингов и их ранжирования по степени значимости. В рамках этого направления выполнено исследование И.Ф.Агильо и др. (I.F.Aguillo at al), в котором делается попытка определить согласованность разных глобальных рейтингов по группам университетов – Tot-10, Top-100 и Top-200 [38]. Данная работа отчасти перекликается с идеей усреднения разных рейтингов для повышения их достоверности.
В целом работа по «вторичному» использованию глобальных университетских рейтингов находится в самом начале пути, как, собственно, и само рейтинговое движение. Но уже сейчас можно смело утверждать, что это информационно-аналитическое направление имеет большие перспективы.
Есть уже предложения и по развитию «смысловых» приложений рейтингов. Так, Ф.Ван Парийс (Ph.Van Parijs), подытоживая результаты 7-го Этического форума по университетам, говорит о трех направлениях совершенствования рейтингового инструментария: для потребителей (учащихся) – в части улучшения оценки качества обучения; для самих университетов – в направлении подстегивания их конкуренции, развития и саморекламы; для политики – при принятии решений о финансировании вузов [37]. По-видимому, эти три линии будут еще долгое время доминировать в рейтинговой аналитике.
1. Салми Д., Сароян Э. Рейтинги и ранжирования как инструмент политики: политические аспекты экономической политики отчетности в высшем образовании// «Высшее образование в Европе», №1, 2007 (http://logosbook.ru/educational_book/dses.html#_ftn1).
2. Stella A., Woodhouse D. Ranking of Higher Education Institutions. Australian Universities Quality Agency, 2006.
3. Сайт издания «US News & World Report» (США) (http://colleges.usnews.rankingsandreviews.com/best-colleges).
4. Сайт издания Maclean’s (Канада) (http://oncampus.macleans.ca/education/rankings/).
5. Сайт издания Perspektywy (Польша) (http://www.perspektywy.pl/).
6. Сайт издания The Times (Великобритания) (http://www.thetimes.co.uk).
7. Сайт издания The Asahi Shimbun (Япония) (http://www.asahi.com/english/).
8. Сайт Центра по развитию высшего образования CHE-Ranking (Германия) (http://www.dashochschulranking.de/).
9. Сайт рейтинга Academic Ranking of World Universities (Китай) (www.arwu.org).
10. Сайт издания The Times Higher Education (Великобритания). (www.thes.co.uk; http://www.timeshighereducation.co.uk/).
11. Сайт рейтинга Ranking Web of World Universities (Испания) (http://www.webometrics.info/).
12. Сайт рейтинга Perfomance Ranking of Scientific Papers for World Universities (Тайвань) (http://ranking.heeact.edu.tw/en-us/2010/Page/Indicators).
13. Сайт рейтинга The Top 100 Global Universities (США) (http://www3.ntu.edu.sg/home/eylu/univ/Newsweek_top100_2006.pdf).
14. Сайт рейтинга World Universities Web Ranking (www.4icu.org).
15. Maslen G. GLOBAL: Ranking universities by web popularity// University World News, 07.02.2010 (http://www.universityworldnews.com/article.php?story=20100205112802880).
16. Аналитический сайт CY-PR.com (http://www.cy-pr.com/analysis/www.4icu.org).
17. Сайт Рейтингового портала «Вирт Тренд» (Армения) (www.iatp.am/arcaler_scorecard).
18. Сайт рейтинга Professional Ranking of World Universities (Франция) (http://www.ensmp.fr/Actualites/PR/EMP-ranking.html).
19. Сайт независимого рейтингового агентства «РейтОР» (Россия) (www.reitor.ru).
20. Фрумин И.Д., Салми Дж. Российские вузы в конкуренции университетов мирового класса// «Вопросы образования», №3, 2007.
21. Открыто на переучет// «Итоги», №11(718), 15.03.2010 (http://www.itogi.ru/obsch/2010/11/149932.html).
22. Екимова Н.А., Балацкий Е.В. Международный потенциал российской университетской системы/ В сб.: Конкурентоспособность в условиях информационного общества: опыт стран БРИК: Материалы международной научно-практической конференции. М.: ГУУ, 2008.
23. Екимова Н.А. Образовательный потенциал регионов России// «Капитал страны», 24.08.2009.
24. Балацкий Е.В., Гусев А.Б. Рейтинги национальных систем высшего образования// «Мир измерений», №4(86), 2008.
25. Артюшина И., Чаплыгин А. Рейтинг – дело тонкое// «Платное образование», №4(66), 2008.
26. IREG–4 Conference 2009 (http://www.reitor.ru/common/img/uploaded/files/Astana.pdf).
27. Сайт компании QS Quacquarelli Symonds Ltd (www.topuniversities.com).
28. Сайт электронной энциклопедии Wikipedia (http://en.wikipedia.org/wiki/Standard_score).
29. Борганс Л., Кёрверс Ф. Американизация европейского высшего образования и науки// «Вопросы образования», №2, 2010.
30. Bates T. World University Rankings: a Reality Based on a Fraud// «E-learning&Distance Education», 17.09.2010 (http://www.tonybates.ca/2010/09/17/world-university-rankings-a-reality-based-on-a-fraud/).
31. Holmes R. Discussion in the Straits Times// University Ranking Watch, 20.05.2010 (http://rankingwatch.blogspot.com/2010/05/discussion-in-straits-times-two-weeks.html).
32. Jobbins D. GLOBAL: First shots fired in ranking war// University World News, 07.03.2010 (http://www.universityworldnews.com/article.php?story=20100305112613216).
33. Clarke M. The Impact of High Education Rankings on Students Access, Choice, and Opportunity/ College and University Ranking Systems: Global Perspectives and American Challenges. IHEP, 2007 (http://www.ihep.org/assets/files/publications/a-f/CollegeRankingSystems.pdf).
34. Попов С. Как улучшить индекс Хирша?// «Троицкий вариант – наука», №12(56), 2010 (http://www.tvscience.ru/56N.pdf).
35. Официальный сайт компании Thomson Reuters (http://www.isiwebofknowledge.com/).
36. Официальный сайт рейтинга Research Assessment Exercise (Великобритания) (http://www.rae.ac.uk/).
37. Parijs Ph. European higher education under the spell of university rankings// «Ethical Perspectives», 2009. Vol. 16, no.2.
38. Aguillo I.F., Bar-Ilan J., Levene, M., Ortega J.L. Comparing university rankings// «Scientometrics», 2010. Vol. 85, February.
39. Smith D.N. The history behind universities, league tables and the brand// «Global Opinion Survey. New Outlooks on Institutional Profiles», 2010, February (http://science.thomsonreuters.com/m/pdfs/Global_Opinion_Survey.pdf).
40. Арефьев А.Л. Состояние и перспективы экспорта российского образования – I// «Капитал страны», 18.10.2010.
41. Арефьев А.Л. Состояние и перспективы экспорта российского образования – II// «Капитал страны», 19.10.2010.
Написать комментарий
В России конечно, веб маркетинг пока находится на уровне динозавров. "секреты раскрутки", "продвижение сайтов", накрутка - это всё полная фигня. Задача любого маркетолога - сделать так, чтобы определенные ЛЮДИ сделали определенные действия. Не привлечение трафика, накрутка каких-то там показателей - а взаимодействие с людьми. Думайте стратегически - влияйте на людей на всех этапах покупательского цикла, стройте бренд, проведите полноценное маркетинговое исследование ДО? применения тактик.
Завидую вашему энтузиазму в работе по улучшению www.kapital-rus.ru