Российская практика оценки эффективности университетских программ
Нужно России множество рейтингов отечественных вузов по конкретным научным направлениям и образовательным программам? Какие существуют рейтинги эффективности образовательных программ и специальностей университетов? Каковы их достоинства и недостатки? Как следует разрабатывать специализированные рейтинги в рамках ведущих вузов страны?
1. Потребность в ранжировании университетских программ
С переходом к рынку в России начала формироваться конкурентная среда. Этот процесс не миновал и высшие учебные заведения. В XXI веке в мире сформировался новый инструмент конкуренции – рейтинги. Сегодня иностранные и российские университеты включились в борьбу за достойное место в наиболее популярных рейтинговых системах. Однако опыт показывает, по крайней мере, две принципиальные ошибки, которые допускаются российскими вузами в процессе стремления войти в топ-листы рейтингов. Рассмотрим их подробнее.
Во-первых, российские вузы ввязываются в глобальную (международную) конкуренцию, в которой у них нет почти никаких шансов на успех. Дело в том, что попытка занять достойное место в глобальных рейтингах университетов (ГРУ) для большинства вузов страны, в том числе для самых лучших из них, представляет собой войну на поражение. Это связано с несколькими обстоятельствами. Первое – в России традиционно действовала система специализированных институтов, а не классических университетов. При столь явной специализации конкурировать с сильно диверсифицированными западными университетами довольно проблематично. Второе – российские вузы сложились как сугубо образовательные структуры, а не научно-образовательные, как, например, в США и Великобритании. При традиционном отсутствии востребованности исследований преподавателей и стимулов к их проведению довольно сложно конкурировать на мировом исследовательском рынке. Третье – борьба на чужом поле по чужим правилам (критериям) ставит российские образовательные заведения в заведомо невыгодное положение. Как, например, конкурировать с американскими вузами, которые являются законодателями научной моды, действуют в родной языковой среде и обладают такими скрытыми преимуществами, как эндаумент (endowment), который, к примеру, для Гарвардского университета составляет около миллиарда долларов?
Во-вторых, российские вузы даже на национальном уровне ориентируются в основном на конкуренцию между университетами, тогда как гораздо важнее конкурировать по конкретным направлениям, которые представлены в вузе. Подмена профессиональной конкуренции по отдельным научным направлениям на общеуниверситетскую конкуренцию приводит к искажению всей системы оценки и стимулов. Как правило, побеждают в этой борьбе самые крупные и богатые вузы, имеющие большой административный ресурс в лице своего руководства. В такой ситуации правильнее ориентироваться на рейтинги университетских факультетов (РУФ). Между тем конкурировать по отдельным научным направлениям в глобальном масштабе также бессмысленно. Сегодня уже стало совершенно понятно, что справедливая международная конкуренция по целому ряду научных дисциплин просто невозможна. Если, например, физики и математики разных стран, имея единый предмет исследования, вполне могут сравниваться между собой, то экономисты, социологи, историки и филологи, у которых предмет исследования различен, – не могут. Для этих специальностей слишком велико значение национальной специфики исследований, чтобы их можно было сравнивать по единым критериям. Тем самым российские вузы ставятся в заведомо проигрышное положение на мировом рынке образования.
Сказанное подводит к осознанию того, что российская система вузов, безусловно, нуждается в ранжировании и рейтинговании, однако эти процедуры должны быть существенно адаптированы под существующую специфику рынка образования России. На наш взгляд, здесь должны использоваться два простых принципа. Первый – следует использовать РУФ, а не общеуниверситетские рейтинги. Это позволит в значительной степени очистить оценку значимости университета по конкретному научному направлению от силы университетского бренда и общеуниверситетской репутации. Второй принцип – следует использовать национальные РУФ, а не глобальные. Расчет на то, что отечественные вузы могут выйти на передовые позиции в глобальных РУФ, не имеет под собой никаких оснований. Особенно это характерно для гуманитарных и социальных наук. Что касается социальных наук, то они вообще должны учитываться по особой методике. Данный факт напрямую отражен, например, в системе адаптируемых весов британского разработчика университетских рейтингов компании Quacquarelli Symonds (QS) [1]. Суть этой системы состоит в том, что разные научные дисциплины оцениваются по трем группам факторов, но вес этих групп факторов для разных наук неодинаковый.
Названные принципы негласно признаются многими экспертами, в связи с чем в России уже давно идет работа по оценке качества отдельных образовательных программ и факультетов вузов. К настоящему времени в данной области уже накоплен определенный опыт, который нуждается в критическом осмыслении для дальнейших разработок отечественных РУФ. Здесь и далее мы будем рассматривать факультеты, специальности и программы вузов как синонимы. Такой подход связан с тем, что методики оценки их качества образуют самостоятельное направление и противостоят методикам оценки качества университетов.
2. Проект «ЛОПИР» и его особенности
Одним из наиболее мощных и интересных проектов по оценке качества профессионального образования в российских вузах является проект «Лучшие образовательные программы инновационной России» (ЛОПИР). Данный проект стартовал в 2010 году и сейчас уже подготовлено три тематических справочника – за 2010–2012 гг. соответственно [2]. Организаторами проекта являются три тесно связанные между собой структуры – Издательство журнала «Аккредитация в образовании», Гильдия экспертов в сфере профессионального образования и Национальный центр общественно-профессиональной аккредитации.
Исторически первым появился журнал «Аккредитация в образовании» (2005 г.), который начал систематически аккумулировать всю информацию по вопросам качества высшего образования в России [3]. Появление данного издания было ответом на запуск национального проекта «Образование», конкурс инновационных программ вузов, возникновение первых федеральных университетов, введение уровневой системы подготовки специалистов, новое поколение образовательных стандартов и т.п. мероприятия, которые так или иначе были связаны с проблемой аккредитации вузов.
Гильдия экспертов в сфере профессионального образования была создана в 2006 г. Учредительным собранием сертифицированных экспертов в сфере оценки качества профессионального образования, на котором был избран руководящий Совет в составе 11 человек и Президент Гильдии. Потребность в создании Гильдии экспертов возникла в связи с вступлением России в общеевропейское образовательное пространство и необходимостью формирования общественно-государственного партнерства в системе аккредитации, широкого привлечения академической общественности к решению вопросов совершенствования технологии независимого консалтинга, аудита и экспертизы качества образовательных программ вузов. На данный момент в состав Гильдии экспертов входит 728 членов – ведущих представителей академической общественности практически из всех регионов России, из них – около 600 ректоров и проректоров, директоров и заместителей директоров филиалов [4].
Третий участник проекта ЛОПИР – Национальный центр общественно-профессиональной аккредитации (НЦОПА) – создан в 2009 г. и является автономной некоммерческой организацией, учрежденной Гильдией экспертов в сфере профессионального образования и другими юридическими лицами в целях организации и проведения аккредитации организаций в сфере образования. Миссия Центра заключается в формировании и развитии культуры качества высшего профессионального образования посредством выявления, оценки и аккредитации лучших образовательных программ в соответствии с российским законодательством и европейскими стандартами [5]. НЦОПА активно работает на международном уровне и является полноправным членом Сети агентств гарантии качества в высшем образовании стран Центральной и Восточной Европы и Азиатско-Тихоокеанской сети гарантии качества; НЦОПА имеет ассоциированный статус при Европейской ассоциации гарантии качества в высшем образовании и ассоциированное членство в Международной сети агентств гарантии качества в высшем образовании.
Авторы проекта ЛОПИР подчеркивают, что их методика не является ни аккредитацией как таковой, ни рейтингом, ни социологическим исследованием. Проект основан на технологии бенчмаркинга – поиска и выявления лучшего опыта в сфере высшего профессионального образования. При этом проект решал две задачи. Первая – выделить программы, пользующиеся доверием у академического и профессионального сообщества, вторая – обозначить методическую проблему и привлечь к ней внимание специалистов и широкой общественности [6]. Масштаб работы участников проекта впечатляет – оценено около 30 тыс. образовательных программ российских вузов, из которых лучшими признаны 2330 программ.
Методика реализации ЛОПИР представляет собой сложный Интернет-опрос, в котором фигурируют «производители» и «потребители» образовательных услуг. «Производители» подразделялись на 5 групп: учебно-методические объединения (УМО) по образованию (54 объединения на федеральном уровне); ведущие ученые страны, владеющие информацией о качестве образования в российских вузах; сертифицированные Рособрнадзором федеральные эксперты в сфере высшего образования; несертифицированные эксперты; ректоры вузов России. «Потребители» подразделялись на следующие группы: Российский союз промышленников и предпринимателей (РСПП); Торгово-промышленная палата (ТПП) РФ и территориальные ТПП (76 организаций); Российский союз молодежи и его региональные отделения (75 организаций); Российский союз молодых ученых и его региональные отделения (45 организаций); территориальные объединения организаций профсоюзов (79 объединений); территориальные органы Роструда (88 отделений); министерства образования субъектов РФ (88 министерств). Отобранные респонденты получали индивидуальные пароли для входа в систему голосования на специализированном сайте [2] и участия в Интернет-опросе в онлайн-режиме. В ходе голосования респонденты могли отметить в территориальной или профильной выборке не более 10% образовательных программ как наиболее достойные. После обработки полученных результатов был сформирован проект перечня лучших программ, который впоследствии прошел обсуждение и верификацию в фокус-группах. В 2012 г. в Интернет-опросе проекта ЛОПИР приняли участие 4078 экспертов [2].
Хотя описанный алгоритм фильтрации лучших образовательных программ в проекте ЛОПИР выглядит вполне логичным и солидным, результаты проводимой работы вызывают массу вопросов. Например, при составлении списка лучших вузов по конкретным специальностям в него не включаются вузы, попавшие в некий общий абстрактный список «Учреждения высшего профессионального образования, реализующие лучшие образовательные программы». Тем самым отраслевые (факультетские, программные) списки оказываются неполными и фактически не пригодны для работы. Кроме того, ряд отраслевых рубрик вызывает откровенное недоумение. Например, в разделе «Естественные науки» за 2011 год присутствуют всего 2 вуза по биологии, 2 – по химии и 1 – по географии. А в разделе «Социальные науки» присутствует один вуз по социологии и один – по социальной работе. В последнем случае уже само название специальности «Социальная работа» вызывает отторжение – оно является одновременно и антинаучным и не соответствующим смыслу рассматриваемой специальности, которая предполагает менеджмент в социальной сфере. Не меньшее удивление вызывает рубрика «Сельское и рыбное хозяйство», в которой оказалось 2 вуза, готовящих специалистов в области механизации сельского хозяйства [6].
В целом пристальное изучение справочника ЛОПИР наводит на мысль о крайней убогости российского высшего образования, которое даже распределить по осмысленным специальностям и программам оказывается проблематично. На наш взгляд, основная проблема такого восприятия состоит в крайне неудачной классификации образовательных программ в проекте ЛОПИР; не исключено, что и сама процедура опроса в проекте содержит системные изъяны, которые и продуцируют неадекватные результаты. По всей вероятности, следует идти по традиционной классификации наук и укрупненных специальностей.
Главным же недостатком ЛОПИР следует считать отсутствие ранжирования оцениваемых программ. Если, например, по биологии имеются качественные программы только в двух вузах страны, то что это значит? Из какого множества выбраны эти 2 вуза? И если вузов с программами такого профиля много, то как они соотносятся по качеству? Насколько программа одного вуза лучше аналогичной программы другого вуза? А в указанных двух вузах программы являются лучшими, чем в других вузах, но насколько они хороши в принципе? На эти вопросы проект ЛОПИР ответов не дает.
Исходя из сказанного, можно утверждать, что проект ЛОПИР предоставляет в качестве результата своеобразный информационный полуфабрикат, который не позволяет понять диспозицию образовательных программ на рынке высшего образования России. На наш взгляд, ЛОПИР содержит достаточно данных для того, чтобы осуществить следующий исследовательский шаг по количественной оценке и сравнению всех программ; пока же ресурс ЛОПИР явно недоиспользован.
3. Проект РУО и его специфика
Еще одним интересным проектом оценки конкретного вида образования стало исследование независимого рейтингового агентства (НРА) «РейтОР», которое в 2006 г. построило рейтинг управленческого образования (РУО) для российских вузов [7]. Методология данного рейтинга не уникальна и во многом напоминает методологию французского рейтинга Professional Ranking of World Universities (PRWU), разработанного годом позже, в 2007 г., École nationale supérieure des mines de Paris. Если PRWU в качестве главного критерия оценки вуза использовал данные о присутствии его выпускников в числе генеральных директоров крупнейших компаний, представленных в ежегодном списке Fortune Global 500 [8], то РУО также использовал критерий «карьерной отдачи» управленческого образования, но на основе данных о присутствии выпускников вузов в управленческой элите страны.
При этом разработчиком РУО рассматривалась элита государственного управления России, для чего вся структура государственного управления разбита на несколько блоков: президентский; правительственный; законодательный; судебный; контрольный; губернаторский. Общее число представителей управленческой элиты составило 1152 человека. В президентский блок включены: президент; руководитель Администрации Президента (АП) и его заместители; помощники президента; советники президента; полномочные представители президента в федеральных округах; руководство Управления делами Президента РФ; руководство Совета Безопасности; руководители главных управлений АП. Общее число представителей блока – 50 человек. В правительственный блок включены: председатель правительства РФ; заместители председателя правительства РФ; министры и их заместители; руководители федеральных служб и их заместители; руководители федеральных агентств и их заместители; руководитель аппарата правительства и его заместители; руководители департаментов аппарата правительства. Общее число представителей блока – 320 чел. В законодательный блок включены: члены Совета Федерации ФС РФ; депутаты Государственной Думы ФС РФ. Общее число представителей блока – 617 чел. В судебный блок включены: председатель и члены Конституционного Суда РФ; председатель и члены Верховного Суда РФ; председатель и члены Высшего Арбитражного Суда РФ. Общее число представителей судебного блока – 45 чел. В контрольный блок включены: генеральный прокурор РФ и его заместители; председатель и аудиторы Счетной Палаты; председатель Центральной избирательной комиссии и ее члены. Общее число представителей контрольного блока – 32 чел. В губернаторский блок включены главы администраций субъектов РФ (президенты национальных республик, губернаторы и т.п.). Общее число представителей губернаторского блока – 88 чел. Для указанных персон были собраны данные о вузах, в которых они учились, т.е. о месте получения ими первого и следующих ступеней высшего образования.
РУО представляет собой два самостоятельных рейтинга вузов – по первому высшему образованию и по «второму и более» высшему образованию. Оценка вуза представляет собой число его выпускников, работающих в высших эшелонах государственной власти. В этом смысле РУО является предельно простым и прозрачным, практически не подлежащим фальсификации. В первый рейтинг вошли 72 вуза; всего в перечень поставщиков топ-кадров для системы государственного управления вошли 415 вузов России и стран бывшего СССР. Во второй рейтинг вошли 34 вуза; в перечень вузов по второму образованию вошли 170 государственных и негосударственных вузов России и стран бывшего СССР, а также 6 западных университетов и бизнес-школ.
РУО имеет ряд очевидных недостатков. Например, рейтингование вузов производилось в 2005 г. и 2006 гг., однако их результаты несопоставимы из-за различий в выборках за указанные годы. Однако помимо этого чисто технического недостатка в РУО просматривается явное «передергивание» смысловой нагрузки рейтинговых индикаторов. Так, разработчиком по умолчанию считалось, что чем больше выпускников некоего вуза работает на высших должностях в государственных структурах, тем лучше образование в данном вузе. К сожалению, данная логика в России не действует. На активность «внедрения» выпускников вузов в систему государственного управления оказывают влияние совершенно иные факторы. Например, лидером в рейтинге по второму высшему образованию была Российская академия государственной службы (РАГС) при Президенте РФ, что было связано с ее особым статусом и «пропусканием» через нее почти всех потоков по переподготовке и повышению квалификации уже состоявшихся чиновников. Лидером рейтинга по первому высшему образованию был Московский государственный университет (МГУ) им. М.В.Ломоносова, который получил свое первое место благодаря своим размерам, длительной истории и хорошим связям с разными работодателями, в том числе с государственной службой.
Тем не менее, РУО можно считать прогрессивным начинанием, которое могло бы иметь вполне достойное продолжение, по крайней мере, для оценки управленческих специальностей вузов. Однако этого не произошло по причине приостановления деятельности НРА «РейтОР» (в настоящее время на официальном сайте НРА «РейтОР» обновления после 2010 года отсутствуют [9]).
4. Проект РСО и его особенности
НРА «РейтОР» за время своей деятельности оставил заметный след в составлении рейтингов вузов в России. В частности, в 2009 г. им было выполнено оригинальное исследование по составлению рейтинга стоимости обучения (РСО) в московских вузах [10]. Для этого НРА «РейтОР» обследовало 89 вузов Москвы: 71 государственный и 18 негосударственных. В рейтинговых таблицах фигурировали минимальные и максимальные уровни стоимости внутри обобщенных направлений подготовки; внутри обобщенных направлений подготовки вузы ранжировались по максимальному уровню стоимости образования. Как отмечал сам разработчик, такой подход позволял интерпретировать полученные данные как своеобразный антирейтинг вузов. В основе такой трактовки лежало представление о том, что вовлеченность вуза в конкуренцию на образовательном рынке должна приводить к росту гибкости ценообразования и, при прочих равных условиях, к снижению цены.
Заметим, что восприятие РСО в качестве социального антирейтинга вузов является неединственным. Иная трактовка предполагает восприятие РСО в качестве рейтинга качества образования, т.к. в цене учитывается фактор качества и его стоимостная оценка потребителем. На наш взгляд, такое понимание РСО является более содержательным и информативным.
Важная особенность РСО состоит в его градации по укрупненным специальностям, которые представляли собой «свертку» конкретных специальностей и направлений подготовки студентов. В этом смысле РСО представляет собой совокупность рейтингов по 13 укрупненным специальностям: экономика и управление (44 специальности); юриспруденция (4); связи с общественностью, журналистика, социальные науки (15); реклама и дизайн (4); образование (39); агропромышленный комплекс, биотехнологии и производство продуктов питания (19); медицина и биоинженерия (13); сервис и туризм (6); строительство и архитектура (12); энергетика (9); машиностроение, оборудование, технологии (73); информационно-коммуникационные технологии и электроника (77); авиационная и ракетная техника (14).
Недостатком РСО являлась его узкая географическая выборка, ограниченная Москвой. Кроме того, из-за специфики используемых данных НРА «РейтОР» не хватало административного ресурса, который позволил бы ему получить всю необходимую информацию. В связи с этим некоторые вузы категорически отказывались предоставлять запрашиваемую агентством информацию. Из-за этого выборка вузов даже по Москве оказалась весьма усеченной. Получение же подобных данных в масштабе страны возможно только при самой активной поддержке со стороны Министерства образования и науки РФ, а в ряде случаев – со стороны Правительства РФ.
5. Проект НРЮФУ и его особенности
Еще один значимый для России рейтинг разрабатывается Международной информационной группой (МИГ) «Интерфакс» и радиостанцией «Эхо Москвы», которые с 2009 года осуществляют реализацию совместного проекта по созданию национального рейтинга университетов (НРУ). Так, в октябре 2009 года в результате конкурсных процедур ЗАО «Информ-Инвест» – дочерняя структура МИГ «Интерфакса» – подписало государственный контракт с Федеральным агентством по образованию РФ на разработку основ независимой системы оценки и формирования рейтингов российских вузов. Уже в 2009 году были подготовлены рейтинги по двум категориям: «Классические университеты» и «Юридические вузы и факультеты» (в каждой категории было представлено по 50 вузов). С 2010 г. «Интерфакс» и «Эхо Москвы» приняли решение продолжить работу по развитию методологии независимой оценки вузов и формированию ежегодного национального рейтинга университетов России за счет собственных средств МИГ «Интерфакс».
Для нашей темы наибольший интерес представляет Национальный рейтинг юридических факультетов университетов (НРЮФУ), методика составления которого основана только на данных социологических и экспертных опросов. Общая оценка в рейтинге сформирована суммированием средневзвешенных нормированных по максимуму частных оценок, которые в свою очередь нормирована по максимуму и приведена к 100-балльной шкале.
Структура опроса выглядит следующим образом. Опрашиваются 4 группы экспертов и респондентов. Первая – академическое сообщество в лице ректоров юридических вузов и деканов юридических факультетов вузов. Оценка уровня организации образовательного, исследовательского и социализаторского процессов производится по 5-балльной шкале. Разработчик полагал, что данные эксперты обладают компетентностью в предмете изучения и наилучшим образом осведомлены о положении дел в вузах коллег. Применительно к этой группе опрашиваемых был проведен онлайн-опрос. Вторая группа – работодатели, нанимающие выпускников-юристов. Третья группа – региональные представители Ассоциации юристов России, которые определяли лучшие вузы, готовящих юристов. Четвертая группа – выпускники-юристы, размещающие свое мнение о вузах на форумах сайтов юридических вузов и в специализированных юридических блогах. В интегральной оценке вуза превалирует оценка академического сообщества, так как оно наиболее информировано о качестве организации всех процессов в вузовской среде. Кроме того, большинство руководителей ведущих юридических вузов (факультетов) входит в руководящие органы Ассоциации юристов России, вследствие чего академическая оценка получает еще большую значимость.
Сама попытка построить рейтинг юридических факультетов страны является, по меньшей мере, похвальной, однако полученный рейтинг имеет множество серьезных недостатков. Среди технических недостатков можно выделить следующие. Во-первых, малая выборка вузов – всего было отобрано 50 наиболее известных юридических вузов, а достаточные для построения рейтинга оценки получены лишь по 25 вузам. Такой усеченный рейтинг является заведомо неполным. Во-вторых, малая выборка опрашиваемых экспертов: общее количество оценок выпускников – около 200, причем отклик составил лишь 40%; число академических экспертов – 50, число опрошенных руководителей предприятий и кадровых служб – почти 150. Хотя структура выборки является вполне сбалансированной, однако ее нельзя считать репрезентативной. Однако главным, на наш взгляд, следует считать содержательный недостаток, связанный с чисто субъективной (экспертной) оценкой качества образования. В рейтинге фактически нет ни одного показателя, фиксирующего объективные результаты образовательного процесса. В такой форме НРЮФУ относится к разряду так называемых репутационных рейтингов, которые в настоящее время оценивают не столько реальное качество образования, сколько силу образовательного бренда вузов. Кроме того, в настоящее время имеются серьезные возражения против методологии репутационных рейтингов в части увеличивающегося когнитивного расстояния между экспертом и оцениваемым вузов [12].
В 2010 г. «Интерфакс» и «Эхо Москвы» подготовили рейтинг педагогических, гуманитарных и лингвистических вузов, однако этот рейтинг занимает промежуточное положение между рейтингами вузов и рейтингами факультетов (специальностей), будучи ближе к первым, чем ко вторым. В связи с этим методика данного рейтинга чрезвычайно перегружена разнообразными показателями, не давая при этом понимания соотношения вузов по конкретными специальностям. На наш взгляд, разработчиком была выбрана неудачная структура агрегирования по направлениям – она оказалась слишком укрупненной.
В 2011 г. «Интерфакс» и «Эхо Москвы» подготовили рейтинг транспортных вузов, однако этот рейтинг во всех отношениях можно считать неудачным и воспринимать его лишь как начало большой работы в данном направлении.
Таким образом, в части РУФ к настоящему моменту можно говорить об опыте «Интерфакса» и «Эха Москвы» только по подготовке НРЮФУ; остальные попытки находятся в зачаточной стадии.
6. Проект СРФАО и его специфика
С 2001 по 2006 годы Федеральное агентство по образованию (ФАО) составляло собственные рейтинги вузов на основе сбора статистической информации. Рейтинг составлялся на основании ежегодного приказа Министерства образования и науки РФ «О рейтинге высших учебных заведений», где была дана и сама методика расчета всех параметров вузов [13]. С 2007 года составление рейтинга прекратилось, и было заменено мониторингом деятельности образовательных учреждений ВПО. Тем не менее, в 2008 г. была подготовлена серия специализированных рейтингов Федерального агентства по образованию (СРФАО), которые подразделялись по факультетам и специальностям: рейтинги российских сельскохозяйственных, архитектурных и художественных, экономических, юридических, медицинских, педагогических и технических вузов, а также вузов сервиса и вузов физической культуры, спорта и туризма [14]. Впоследствии работа по рейтингованию вузов прекратилась.
Принятая в 2012 г. Министерством образования и науки методика предполагает нормирование и свертку большого числа параметров, сгруппированных в несколько больших разделов: эффективность научной и инновационной деятельности; эффективность подготовки кадров; интеллектуальный потенциал вуза; материальная и информационная база вуза; обеспеченность общежитиями, общепитом, профилакториями и спортивными сооружениями. Всего инструкция предполагает подготовку 58 показателей деятельности вуза [15].
Методика СРФАО имеет серьезные плюсы, но и не менее серьезные минусы. К числу ее достоинств можно отнести тот факт, что деятельность вузов оценивается по большому числу показателей, которые дают фактически полное представление об их деятельности. Все показатели являются прозрачными, понятными и функционально определенными. Сравнение вузов по такому набору показателей дает вполне объективную систему ранжирования вузов. Вместе с тем традиция российского регулятора такова, что во всех данных о вузах он тщательнее всего учитывает их ресурсный потенциал. Такой подход противоречит мировой практике и приводит к неправомерному завышению роли ресурсного обеспечения учебного процесса. Например, обеспеченность студентов общежитиями, строго говоря, не имеет отношения к качеству образования, равно как и число мест в санаториях и профилакториях вузов. Напрямую не имеет отношения к качеству образования и площадь спортивных сооружений вуза. Более того, в современном мире даже обеспеченность компьютерами и объем библиотечных фондов уже не имеет значения – у большинства людей есть личные компьютеры, а в библиотеку уже практически никто не ходит за бумажными изданиями книг, предпочитая им цифровые тексты.
Одновременно с этим СРФАО практически не учитывают собственно факультетскую специфику вузов, так как это предполагает акцент именно на результатах вуза по изучаемому направлению (факультету, специальности). Фактически ФАО просто ранжирует одни и те же показатели по разным группам университетов. По-видимому, именно этим обстоятельством объясняется чрезвычайно скудный массив вузов, входящих в СРФАО. Например, в рейтинге сельскохозяйственных вузов фигурирует только 45 институтов, экономических – 32, медицинских – 38, педагогических – 74, технических – 157, физической культуры, спорта и туризма – 12, юридических – 8, архитектурных и художественных – 7, сервиса – 7. Тем самым фактически рейтингуются не факультеты и специальности вузов, а сами вузы, имеющие некую условную специализацию.
Отмеченный факт приводит к явным несуразицам в рейтингах. Например, в рейтинге экономических вузов Высшая школа экономики, небезосновательно претендующая на первое место в стране, оказалась лишь на 5-ом месте, тогда как Государственный университет управления, который позиционирует себя не как экономический, а как управленческий вуз, оказался на 3-ем месте. При этом Московский государственный университет (МГУ) им. М.В.Ломоносова и Санкт-Петербургский государственный университет (СПбГУ) вообще не попали в рейтинг. Последнее обстоятельство, по-видимому, связано с тем, что МГУ и СПбГУ имеют особый статус и не подчиняются Министерству образования и науки РФ. На другом полюсе стоит Российская экономическая школа (РЭШ), которая также претендует на самое высокое место среди российских вузов экономического профиля, но является частным институтом и лишь частично подпадает под систему Министерства образования России. Тем самым ФАО при составлении СРФАО просто игнорирует вузы, не входящие в его непосредственную юрисдикцию.
В целом СРФАО дают уникальную информационную базу для составления РУФ, однако в своей исходной форме они являются слишком «тяжеловесными» в смысле оценки ресурсного потенциала вузов и страдают избыточной консервативностью при формировании списка конкурирующих вузов и критериев их оценки.
7. Рейтинг ЕГЭ-ВШЭ и его особенности
В 2011 году Национальным исследовательским университетом (НИУ) «Высшая школа экономики» (ВШЭ) и Российским информационным агентством (РИА) «Новости» был запущен совместный проект «Общественный контроль за процедурами приема в вузы как условие обеспечения равного доступа к образованию» по заказу Общественной палаты РФ «Мониторинг качества приема в государственные вузы России» [16]. Суть проекта состоит в построении рейтинга «качества абитуриентов» разных вузов страны, что в свою очередь показывает, какие вузы страны наиболее востребованы со стороны лучших абитуриентов.
Основная идея проекта состоит в оценке среднего бала единого государственного экзамена (ЕГЭ) каждого вуза; этот параметр и является ключевым для рейтингования вузов России. Итогом такой работы является рейтинг ВШЭ, составленный на основе ЕГЭ (ЕГЭ-ВШЭ).
В общем случае показателями качества приема в вузы являются средние и минимальные баллы ЕГЭ (в расчете на 1 предмет). Данные показатели определяются на основании данных о баллах ЕГЭ у абитуриентов, зачисленных в вузы по конкурсу на 1-й курс бакалавриата (специалитета) на бюджетные места очной формы обучения. Разработчик не учитывает баллы ЕГЭ зачисленных по целевому набору, по результатам участия в олимпиадах школьников и с учетом иных льгот при поступлении. Средний балл по вузу взвешивается с учетом численности студентов, зачисленных на каждое направление подготовки (специальность) в вузе: средний балл по специальности умножен на количество принятых студентов по конкурсу, а затем сумма этих произведений по каждой специальности делится на общее количество студентов по конкурсу. В рейтинге представлен средневзвешенный средний балл по вузу в расчете на один засчитываемый предмет ЕГЭ. Минимальный балл ЕГЭ по вузу рассчитывается двумя способами: как минимальный, выбранный из минимальных баллов по всем направлениям вуза (т.е. взят балл самого слабого зачисленного в вуз); как средний по минимальным баллам для каждой специальности в вузе [17].
Основная философия рейтинга ЕГЭ-ВШЭ состоит в оценке спроса со стороны абитуриентов на услуги того или иного вуза. По умолчанию предполагается следующая логика: чем выше качество обучения в вузе, тем выше спрос на него, тем выше требования к поступающим, тем выше должно быть «качество» претендующих на этот вуз абитуриентов и, следовательно, тем выше бал ЕГЭ. Таким образом, рейтинг ЕГЭ-ВШЭ косвенно оценивает качество высшего образования вузов.
По сравнению с СРФАО рейтинг ЕГЭ-ВШЭ имеет массу преимуществ. Прежде всего, он прост, ибо относится к разряду малопараметрических методов; предполагается, что в показателе качества (балл ЕГЭ) уже учтены все факторы и аспекты образовательных услуг. Кроме того, рейтинг ЕГЭ-ВШЭ оперирует весьма большой выборкой вузов. Например, в 2011 г. она включала 525 государственных институтов. Однако, по нашему мнению, главным достоинством рейтинга ЕГЭ-ВШЭ является возможность его формирования по специальностям. Например, в 2011 году были составлены рейтинги по 66 направлениям подготовки; фактически речь идет о 66 РУФ. При этом широта каждого из этих РУФ по сравнению, например, с СРФАО отличается в лучшую сторону. Например, массив рейтинга экономических вузов составляет 285 в ЕГЭ-ВШЭ против 32 в СРФАО, медицинских – 76 против 38, физической культуры и спорта – 53 против 12, юридических – 146 против 8 [16]. Тем самым рейтинги ЕГЭ-ВШЭ по специальностям могут считаться полноценным РУФ.
Разумеется, рейтинг ЕГЭ-ВШЭ не лишен недостатков. По всей вероятности, главный из них состоит в том, что оценка качества высшего образования в вузах страны полностью возлагается на абитуриентов, которые в силу разных обстоятельств не являются настолько «квалифицированными» потребителями, чтобы справиться со столь сложной задачей. Как правило, академические результаты деятельности вузов, которые являются главным мерилом их профессионального уровня, не видны сообществу абитуриентов и не учитываются им.
Несмотря на недостатки и ограничения рейтинга ЕГЭ-ВШЭ, на сегодняшний день он представляет собой один из наиболее работоспособных инструментов оценки качества высшего образования.
8. Рейтинг ЕГЭ-Ф и его особенности
Рейтинг ЕГЭ-ВШЭ довольно быстро стал весьма популярен, в связи с чем породил волну «вторичных» рейтингов. Так, на основе исходных данных ЕГЭ-ВШЭ журнал «Forbes» предложил свою версию рейтинга самых сильных российских университетов (топ-30) – ЕГЭ-Ф [18]. Основным показателем в ЕГЭ-Ф также является средний балл ЕГЭ абитуриентов, но для отсечения нерепрезентативных результатов «Forbes» ввел ряд дополнительных критериев. Им были исключены из выборки вузы силовых ведомств, медицинские институты и университеты, а также университеты Северо-Кавказского федерального округа. Кроме того, дополнительными критериями отбора университетов в рейтинг являлись следующие показатели: конкурсный прием и число победителей и призеров олимпиад должны превышать 50% от общего количества студентов, принятых на бюджетные места (за счет этого отсекаются вузы, в которых средний балл ЕГЭ завышен за счет большого набора студентов по целевому набору без экзаменов); количество студентов, поступивших по конкурсу, должно превышать 150-200 человек (в рейтинге были отсечены вузы, где количество поступивших студентов не превысило 200 человек).
Сама процедура дополнительной калибровки рейтинга ЕГЭ-ВШЭ является довольно любопытной, однако полученный таким образом рейтинг ЕГЭ-Ф является еще более сырым, чем его исходный список. Дело в том, что ЕГЭ-Ф ограничился общей таблицей самых сильных вузов, тогда как было бы интереснее пойти дальше и «почистить» рейтинги ЕГЭ-ВШЭ по научным направлениям. В этом случае была бы сохранена исходная база ЕГЭ-ВШЭ, но обеспечена некоторая коррекция списков. При этом необходимо проработать вопрос, куда будут переставляться «отбракованные» вузы. На наш взгляд, в этом направлении рейтинг ЕГЭ-Ф может быть доработан. В настоящий момент журнал «Forbes» сделал только первый робкий шаг по пути составления РУФ; остается надеяться, что в скором времени им будут сделаны очередные шаги.
9. Основные выводы
Проведенный обзор подходов к оценке качества программ вузов позволяет сделать несколько выводов.
Во-первых, в стране накоплен довольно обширный и разнообразный опыт по оценке качества образования не только в целом по вузам, но и по конкретным специальностям.
Во-вторых, российские подходы к данного рода оценке сильно отличаются от тех, которые доминируют в развитых странах Запада. Если западные методики ориентируются преимущественно на академические результаты вузов, то российские – на министерские нормативы, ресурсные параметры и рыночные индикаторы.
В-третьих, большинство подходов в этой области грешит крайностями – либо они слишком просты, либо слишком сложны. К чрезмерно простым относятся однопараметрические рейтинги ЕГЭ-ВШЭ, ЕГЭ-Ф, РСО и РУО, к чрезмерно сложным – многофакторные ЛОПИР, НРЮФУ и СРФАО. Достигнуть сбалансированности в сложности при разработке рейтингов факультетов пока не удается.
В-четвертых, большинство рейтинговых начинаний «захлебнулось» либо по причине нехватки соответствующего финансирования, либо по причине отсутствия общественной потребности в составляемых рейтингах. Срок жизни большинства рейтингов составляет всего несколько лет. В результате наблюдается калейдоскоп неудачных попыток, который не позволяет отследить динамику изменений на рынке высшего образования.
Исходя из сказанного, можно предложить простую классификацию существующих рейтингов по двум критериям: характеристике сложности и типу используемых индикаторов, которые несколько условно делятся на рыночные (спрос, цена, репутация и пр.) и нормативные (не совсем рыночные, ближе к административным) (число высокопоставленных чиновников, превышение нормативных значений и т.п.) (табл.1).
Таблица 1. Классификация рейтингов программ вузов России.
Тип индикаторов | Характеристика сложности | |
---|---|---|
Слишком простые | Слишком сложные | |
Рыночные | ЕГЭ-ВШЭ, ЕГЭ-Ф, РСО | НРЮФУ |
Нормативные | РУО | ЛОПИР, СРФАО |
В настоящее время имеет смысл разработать относительно простую, но все-таки многофакторную схему РУФ, которую без особых усилий и денежных затрат можно было бы ежегодно повторять для разных дисциплин и специальностей. При этом поставку таких рейтингов на рынок информации должны на себя брать не государственные ведомства и специализированные агентства, а сами университеты, как это принято на Западе. В настоящее время российские университеты пока почти никак не задействованы в этом процессе. Если же университеты, являющиеся ведущими в своей области, возьмут на себя работу по созданию специализированных РУФ, то это даст выигрыш по многим направлениям. Во-первых, крупный университет без особых проблем может сделать один рейтинг в близкой для себя профессиональной области, что разгрузит ведомства и рейтинговые агентства от лишней масштабной работы. Во-вторых, доверие к таким рейтингам будет, скорее всего, больше, чем к рейтингам, исходящим из бюрократических структур власти и сомнительных рейтинговых агентств. В-третьих, повысится стабильность составления самих рейтингов, что будет способствовать их признанию и тем самым сделает их рабочим аналитическим инструментом для всех заинтересованных лиц.
***
Статья подготовлена при финансовой поддержке Российского гуманитарного научного фонда (проект №12-02-00169а).
Литература
1. Балацкий Е.В. Мировой опыт составления и использования рейтингов университетских факультетов// «Общество и экономика», №9, 2012.
2. Официальный сайт проекта «Лучшие образовательные программы инновационной России»/ http://www.best-edu.ru/.
3. Официальный сайт журнала «Аккредитация в образовании»/ http://www.akvobr.ru/o_zhurnale.html.
4. Официальный сайт Гильдии экспертов в сфере профессионального образования/ http://expert-nica.ru/.
5. Официальный сайт Национального центра общественно-профессиональной аккредитации/ http://ncpa.ru/.
6. Лучшие образовательные программы инновационной России: Справочник. М.: 2011.
7. Образование представителей элиты государственного управления России. Рейтинг вузов – 2006/ Бизнес-образование в России и за рубежом/ http://ubo.ru/analysis/?cat=1&pub=1719.
8. Балацкий Е.В., Екимова Н.А. Международные рейтинги университетов: практика составления и использования// «Журнал Новой экономической ассоциации», №9, 2011.
9. Консалтинг и оценка рейтинга вузов/ http://reitor.ru/.
10. Рейтинги вузов 2009 © АНО НРА «РейтОР»/ http://www.234555.ru/news/2009-08-16-153.
11. Национальный рейтинг университетов/ http://univer-rating.ru/rating_branch.asp.
12. Балацкий Е.В., Екимова Н.А. Глобальные рейтинги университетов: проблема манипулирования// «Журнал Новой экономической ассоциации», №1(13), 2012.
13. Приказ Минобразования РФ от 26.02.2001 №631 «О рейтинге высших учебных заведений»/ http://www.bestpravo.ru/rossijskoje/vg-pravila/d8k.htm.
14. Рейтинги вузов России/ http://high-schools.ru/ratings/.15. Вузы России/ http://rating.edu.ru/.
16. Качество приема на различные направления подготовки ВПО (по среднему баллу ЕГЭ 2011)/ http://www.edu.ru/abitur/act.74/index.php.
17. Качество приема в вузы – 2011: результаты исследования. Методика расчета/ http://vid1.rian.ru/ig/ratings/Metod%20rascheta.pdf.
18. Самые сильные университеты России. Рейтинг/ http://www.forbes.ru/karera-package/obrazovanie/55574-luchshie-universitety-rossii-novyi-reiting-forbes#pages-1.
Написать комментарий