Вдохновение и h-индекс взгляд психолога

(С.М.Морозов)
Рукопись

Аннатация: В статье рассматривается самый популярный сегодня по-казатель оценки деятельности ученых – так называемый индекс Хирша, названный так в честь американского физика, впервые высказавшего идею применения этого показателя. Автор статьи рассматривает проблемы, свя-занные с повсеместным применение этого индекса, и анализирует опасно-сти, связанные с его гиперболизацией. Приводятся некоторые логические и психологические аргументы, демонстрирующие неприемлемость исполь-зования наукометрических подходов.
Ключевые термины: наукометрия, h-индекс, цитирование, Х.Хирш, влияние, научное влияние, вдохновение.

Annatation: The article discusses the most popular indicator of evaluating the activities of scientists today – the so-called Hirsch index, named after the American physicist who first expressed the idea of using this indicator. The au-thor of the article examines the problems associated with the widespread use of this index and analyzes the dangers associated with its hyperbolization. Some logical and psychological arguments are presented that demonstrate the unac-ceptability of using scientometric approaches.
Key terms: scientometry, h-index, citation, Hirsch, influence, scientific in-fluence, inspiration.

Когда мера становится целью,
она перестает быть хорошей мерой.
Закон Гудхарта

Человеку свойственно считать. Ему важно знать, сколько звезд на небе, сколько стульев в его кабинете, сколько овец в его отаре и т.д. Правда, психологи часто говорят о невозможности измерить такие психологические характеристики человека как способности, талант, гениальность… Поэтому занятия наукометров по определению степени значимости того или иного научного текста посредством вычисления количества цитат того или иного автора большинством исследователей рассматривалось не более как свое-образная «игра ума» некоторой части науковедов. Исследователи (по своей наивности) думали, что средства подсчитать их научное влияние просто не может существовать.
Но в начале нашего века американские ученые сделали замечательное открытие: есть такое средство, и называется оно h-индекс. Это наукометри-ческое средство изобрел в 2005 г. аргентино-американский физик Хорхе Хирш из Калифорнийского университета в Сан-Диего. Сначала Хирш предложил этот индекс для оценки научной продуктивности физиков. Но постепенно h-индекс стал использоваться и в других науках, в том числе даже в такой далекой от математизации науке, каковой является психоло-гии. Более того, сегодня индекс Хирша стал использоваться не только в ка-честве мерила научного влияния того или иного исследователя, но и как средство положения ученого в административной структуре научного со-общества. В наукометрические тексты даже проникли термины «хирше-метрия», «хиршефобия», «хиршемания».
Этот показатель постепенно стал одним из главных инструментов в кругах научно-административного аппарата и постепенно превратился в фетишизированный рычаг административного воздействия, приводящий в священный трепет представителей научного сообщества.
***
Ученые, как известно, - народ рассеянный. Они думают, что главное в их работе – погруженность в предмет исследования. Уверен, что в силу та-кой рассеянности мало кто из исследователей знает, с чего началась история этого удивительного показателя. Но наукометрия в наше время стала силь-но досаждать ученым не только в форме занятных «игр», отвлекающих от цели, но и, путем различных административных воздействий, на быт уче-ного. Поэтому считаю совсем не лишним в начале изложения собственной точки зрения, рассказать об аргументах, приведенных Х.Хиршем в его ста-тье [Hirsch, 2005], с которой начались удивительные приключения амери-канского индекса по миру, в том числе и по России.
1. В своей эпохальной статье Х.Хирш перечисляет не устраиваю-щие его показатели эффективности вклада исследователей в науку. Во-первых, общее количество статей его не устраивает, поскольку этот показа-тель говорит нам нечто о производительности автора, но не измеряет важ-ность статей.
2. Общее количество цитирований того или иного автора также не является убедительным, с точки зрения Хирша. Такой показатель говорит нам о влиянии исследователя. Но все цитаты невозможно найти.
2а. Здесь я позволю себе сделать небольшое добавление к тексту Хирша. Действительно, все цитирования того или иного автора найти крайне затруднительно. Не важно, как в дальнейшем мы будем обрабаты-вать найденные цитаты. Человеку, их подсчитываемому свойственно оши-баться. Поэтому ошибки в этом случае неизбежны. Столь же неизбежны эти ошибки и при использовании h-индекса. Но уважаемый автор почему-то не обращает на это свое внимание.
2б. На наш взгляд, более важен другой аргумент, выдвигаемый Хир-шем против этого показателя. Это – количество соавторов той или иной статьи. Возьмем самый простой пример. Представьте себе ситуацию, в ко-торой издано n статей, у которых два соавтора: X и Y. При этом, X – широ-ко известный ученый, а Y – его аспирант. Тогда, сколько бы цитирований не набрали эти статьи h-индекс у X и Y будет одинаковым. Кроме того, этот показатель придает излишний вес, по мнению Хирша, высокоцитируемым статьям. Представим себе авторов (А и В), которые издали по 10 статей. Из статей автора А цитируют только одну статью, а у автора В – все 10. Но статью первого автора процитировали 100 человек, а статьи второго в сум-ме набрали 90 цитирований. Разумеется, мы будем испытывать сильные сомнения в том, что автор А внес больший вклад в науку, чем автор В. Вот в таких случаях и пригодится индекс h, считает Х.Хирш.
3. У Х.Хирша вызывает сомнение и такой фактор, как среднее ко-личество цитирований статей. Разумеется, такой показатель будет демон-стрировать возраст автора: чем он старше, тем этот показатель выше. Но он будет поощрять авторов с возрастом уменьшать свою производительность, и как бы ни был хорош молодой исследователь, он вряд ли может превзой-ти своего более старшего коллегу.
4. Хорош, казалось бы, критерий, в соответствии с которым мы просто устанавливаем количество статей с количеством цитирований не меньше некоторого n (например, не меньше 50 цитирований той или иной статьи). Но и в этом случае есть свой «минус»: такой критерий будет поощ-рять авторов обзорных работ и сокращает количество оригинальных иссле-дований.
5. Всем хорош, казалось бы, такой фактор: «количество ссылок на каждую из q наиболее цитируемых статей». Берем, скажем, 5 или 10 наибо-лее цитируемых статей того или иного автора, подсчитываем количество цитирований этих статей и делим на 5 или 10. Всем был бы хорош этот по-казатель, если бы не очередная загвоздка: какое число q выбрать: чем оно выше, тем меньше шансов у молодых исследователей вообще попасть в рейтинг.
Одним словом, ни один из показателей Х.Хиршу не нравится, и он безапеляционно заявляет: Я предлагаю, говорит он без ложной скромности, индекс h, определяемый как количество статей с числом цитирований > h, в качестве полезного показателя для характеристики научных результатов ис-следователя. И расшифровывает, что же это такое h-индекс. Ученый имеет индекс h, если h из его статей процитированы, по крайней мере, в h статьях других статьях.

***

Как известно, в России всей наукой и всем высшим образованием, наряду с министерствами, заведует ООО «Научная электронная библиоте-ка» (далее – НЭБ), зарегистрированное в 1998 г. четырьмя физическими лицами. НЭБ с первых дней своего существования поставило перед собой, казалось бы, невыполнимую задачу: извлечение прибыли из научных раз-работок, существующих в электронном виде. Это кажется тем более невы-полнимым, что в России того времени, как, впрочем, и сегодня, нет ника-ких правовых возможностей для осуществления этого замысла. Но, узнав, что в Америке физик Хирш написал вышеупомянутую статью, НЭБ мо-ментально стала применять h-индекс в своей практике и внедрять его в не восстановившиеся после перестроечных баталий умы российской научной общественности. Общественность вначале не восприняла всерьез намере-ния НЭБ: мало ли чего не пришлось этой общественности пережить в 90-е. Но общественность не учла пассионарности НЭБ и не предвидела тех ад-министративных водоворотов, которые ожидали эту общественность в не-далеком будущем.
В применении h-индекса руководители НЭБ продемонстрировали за-видную пассионарность. Видимо, посоветовавшись с опытными менедже-рами, они поняли, что без рекламного продвижения товара на рынке много денег не заработаешь. Поэтому в 2012 г. они зарегистрировали торговую марку РИНЦ (Российский индекс научного цитирования), в 2014 г. торго-вую марку ELIBRARY LIBRARY ELIBRARY.RU, и, наконец, в 2015 г. – торговую марку SCIENCE INDEX.
Не знаю, за счет чего НЭБ получает свою прибыль: за счет проведе-ния фундаментальных исследований и научно-исследовательских и опыт-но-конструкторских работ в области использования атомной энергии и в области ядерной оружейной продукции или за счет научных исследований и разработки в области нанотехнологий (эти направления входят в заявлен-ные интересы НЭБ). Но, думаю, немалую часть прибыли указанное Обще-ство извлекает при помощи торговли научной продукцией.
Поскольку чем больше такой продукции, тем выше прибыль, задачей НЭБ стало стремление всемерно повышать производительность труда оте-чественного научного производителя. Эта достойная задача не вызывала бы наших сомнений, если бы не некоторые побочные факторы, не позволяю-щие признать окончательную победу НЭБ. К таким факторам отнесем, прежде всего, коммерциализацию научной деятельности, которая проявля-ется в том, что в последние годы появились многочисленные организации, предлагающие за определенное материальное вознаграждение опублико-вать авторский текст: любой авторский каприз за авторские деньги. Этот почин указанных организаций был бы хорош, если бы не очередное сомне-ние: в зависимости оценки научного влияния автора от определенного ко-личества денежных средств. Тут намечается явное смешение наукометриче-ских и экономических категорий.
Еще один момент, вызывающий наши сомнения – чересчур вольное обращение со списком тех изданий, которые подвергаются подсчету цити-рования сотрудниками НЭБ. Подобные вольности приводят к тому, что ста-тьи того или иного автора, пытающегося защитить диссертацию и опубли-ковавшего свои статьи в журналах, попавших в так называемый ВАК-овский список, могут оказаться текстами, вовсе не имеющими научной ценности, поскольку НЭБ выбросило их из своих списков. Впрочем, выби-рая между производительностью труда и судьбой отдельного соискателя, НЭБ, разумеется выбирает производительность: как говорится, лес рубят – щепки летят.
Впрочем, есть мнение (Руоководители…), что выбрасываемые статьи представляют собой научное «дно». Но и тут, разумеется, возникает вопрос: а судьи кто? И тут перед нами еще одна проблема, с которой мы пытаемся справиться: проблема экспертизы: кто те эксперты, которые ставят оценки своим коллегам? И дело тут совсем не в оценках и не в самих экспертах. Дело в другом: в закрытости этих имен. Остается только верить, что все эксперты являются честными людьми, добросовестно выполняющими свой долг.

***

В современных научных изданиях содержится довольно много ста-тей, авторы которых обращаются к анализу h-индекса. Все эти работы можно разделить на две неравные части. Большинство статей описывают способы подсчета этого индекса. Логика авторов этих статей, видимо, тако-ва: есть индекс, необходимость применения которого заведомо неопровер-жима, поэтому научному народу нет необходимости разбираться в досто-инствах и недостатках этого индекса: раз он предписан свыше, значит уже по этой причине хорош, а задача авторов таких статей состоит лишь в том, чтобы разъяснить, как этот индекс подсчитать. Иными словами, в этих ста-тьях мы не сможем найти каких-то оценок рассматриваемых методов.
Ко второй группе авторов отнесем тех, кто так или иначе дает оценку применению наукометрических методов. Удивительно, но как только мы встречаем автора, который пытается дать такую оценку, мы тут же сталки-ваемся с критикой этого подхода (Георгиев, 2011). Критика эта касается разнообразных моментов, вызывающих сомнения у определенной части наукометров.
Одно из наиболее существенных замечаний в адрес h-индекса состо-ит в том, что на разных наукометрических платформах этот индекс подсчи-тывается по-разному. Человек, подсчитывающий цитирования – не автомат. Он может ошибиться, пропустить какую-нибудь цитату. Кроме того, в со-временных условиях экспоненциального увеличения публикаций, просчи-тать все статьи просто физически невозможно. Отсюда и разные цифры на разных платформах. Например, в интернете указывают, что индекс самого Хорхе Хирша в Google Scholar - 65, в Scopus - 58, в WoS – 59 (Системный, И такой разнобой в оценках связан не только с особенностями под-счета цитат, о которых мы говорили выше, и на которые обращал свое внимание и сам Х.Хирш. Дело еще в правилах самой «игры», которые за-даются разными платформами. Например, система Web of Science рассмат-ривает только периодические издания (книги не рассматриваются), и в ней присутствуют только англоязычные тексты. В итоге, совершенно не учиты-ваются ссылки на статьи, приведенные даже в известных и хорошо цитиру-емых книгах (а ученые подобные ссылки в книгах ценят обычно значитель-но выше, чем ссылки в статьях).
Естественный вопрос, который должен здесь возникнуть (но не воз-никает): почему в России применяется только один счетчик цитирований? Попробуем избежать разнообразных конспирологических объяснений и скажем только, что с точки зрения бизнеса отсутствие конкурентов – фак-тор отрицательный, приводящий к стагнации той отрасли, в которой при-меняется данный индекс.
Из того же разнобоя платформ проистекают и другие побочные эф-фекты. Например, некоторые ранние работы незаслуженно забываются, а если и цитируются, то только их переиздания, опубликованные много поз-же. Если работа важная, но достаточно сложная для понимания, ее цитиро-вание может откладываться на многие годы.
Высокий индекс цитируемости могут получать статьи, которые часто критикуются, т.е. такой индекс возрастает не по принципу научного влия-ния, а по принципу заметности данной статьи. Например, очевидно, замет-ны будут работы, авторы которых обвиняются научным сообществом в плагиате.
Во многом на индекс цитируемости влияет язык, на котором данная статья написана. Мало цитируются статьи, опубликованные в переводных журналах (поэтому необходимо делать поправку при сравнении ИЦ рос-сийских и зарубежных ученых). И здесь вступают в силу совсем не науко-метрические характеристики. Например, в Советском Союзе была широко известна психологическая школа Д.Н.Узнадзе. Разумеется, работы предста-вители этой школы создавали и на грузннском, и на русском языках. По-нятно, что русскоязычные тексты пользовались большей известностью (ци-тируемостью). Но с распадом СССР и с подъемом так называемого нацио-нального самосознания, русскоязычные тексты исчезли. В итоге целая школа оказалась в научном небытии. Вопрос: стали эти психологи менее значимыми?
Цитирование сильно зависит от журнала, в котором публикуется ста-тья. Разумеется, в наших реалиях больше цитирований получит статья опубликованная в центральном, многим известном журнале, нежели в ка-ком-нибудь Уральском или Сибирском издательстве. При всем моем уваже-нии к Уралу и Сибири, факт остается фактом.
Еще один момент, который часто обсуждается – самоцитирование. Обычный ответ, который возникает здесь, распадается на две взаимоисклю-чающие части: одни авторы (их большинство) считают, что самоцитирова-ния вообще надо исключить из подобных подсчетов; другие убеждены, что самоцитирования нужно всегда учитывать. Действительно, в научном со-обществе широко известен прием так называемой «накрутки» собственных цитирований. Это может происходить не только при помощи самоцитиро-вания, но и скажем, путем взаимного цитирования исследователей друг друга. Мы не будем теперь обсуждать этическую сторону этого вопроса. Скажем только, что самоцитирование, как атрибут наукометрического под-хода, все шире проникает в научное сообщество.
Конечно, нельзя говорить и о том, что само- или взаимное цитирова-ние невозможно. Часто случается, что автору просто необходимо сослаться на свою предыдущую работу, тем более часто случаются ссылки на своих коллег. В этом нет ничего зазорного. Вот только использование всевозмож-ных наукометрических индексов ведет к некорретному применению данно-го приема, который сам по себе не плох. Он становится плохим, когда наукометрия становится показателем не только количества статей, но и должности исследователя.
Индекс Хирша сегодня применяется во всех науках. Но это означает, что представителей разных наук просто невозможно сравнивать, используя h-индекс. Просто потому, что количество статей в разных направлениях науки кардинально различно. Например, наукометры подсчитали, что ме-дицинские статьи составляют примерно 40% от общего количества науч-ных текстов, а психологические статьи – 6-7%. Отсюда следует, что в мас-штабах науки психологи по своему научному влиянию просто не могут превзойти тех же врачей.
Правда, сторонники h-индекса могут нам ответить, что нам и не нуж-но посчитывать влияние ученого, его работ на представителей других наук: достаточно подсчитать влиятельность медика среди медиков, физика среди физиков, психолога среди психологов. С этим можно согласиться. Действи-тельно, какому физику интересно, насколько влиятелен тот или иной пси-холог среди физиков (и наоборот).
Независимость научного влияния от h-индекса становится особенно заметной, если сравнивается его связь с количеством скачиваний того или иного текста в интернете. Так П.П.Федоров и А.И.Попов (Федоров, Попов, 2020) приводят такие данные и показывают, что эта связь крайне слаба. Причем в исследовании учитывались только те скачивания, за которые чи-татели платили деньги, то есть действительно испытывали интерес к ин-формации. Разумеется, скачиваний оказалось больше, чем цитирований. Но вот количество таких скачиваний сильно различалось. Для некоторых работ скачиваний было больше раз в 20 - а для некоторых в 200, чем цитирова-ний. Логично было бы предположить, что такой индекс говорит нам боль-ше о научном влиянии ученого.
Наконец, можно добавить еще один аспект той же проблемы – аспект, который почему-то не упоминается в статьях, посвященных рассматривае-мой индексации. В российской науке принята система, в которой научные кадры собраны в так называемых НИИ (научно-исследовательских инсти-тутах). Разумеется, есть они и в вузах. Но при этом возникает вопрос: дол-жен ли преподаватель вуза быть исследователем. Казалось бы, вопрос чисто риторический: принято считать, что вузовский преподаватель должен раз-бираться в науке. Но «разбираться в науке» и «быть ученым» - две разные профессии. Разумеется, никто не будет спорить, что учебное заведение только приобретет более высокий статус, если в числе его преподавателей окажутся Нобелевские лауреаты или академики. Но, утверждаю: если вуз станет подбирать преподавательские кадры только по принципу наличия у претендентов научных регалий, статус этого вуза со временем будет сни-жаться. Повторяю, ученый и преподаватель это – разные профессии. Никто не станет требовать от исследователя умения увлечь студенческую аудито-рию, обладать известной степенью артистизма, хорошими навыками рито-ра. Но именно эти характеристики важны для преподавателя. Кроме того, у преподавателя имеются свои должностные обязанности (читать лекции, ве-сти семинары), которые и составляют его основную профессиональную де-ятельность. Но преподавателю именно вменяется (посредством индивиду-альных планов) заниматься, кроме своей профессией, еще и профессией ученого. Иными словами, мало кто из преподавателей становится выдаю-щимся ученым, он только теряет свою преподавательскую квалификацию. Интересно, что было бы, если бы дояркам предписано было быть еще и комбайнерами по логике: без корма нет коровы, корм зачастую убирается комбайнами, ergo… Но преподавательских администраторов (впрочем, и научных тоже) мало интересуют подобные аргументы.
Представим себе имена наиболее влиятельных исследователей, кото-рые упоминаются в нашей научной литературе – какие-нибудь Гегели и Канты, Эйнштейны и Ньютоны, Аристотели и Платоны. Попали бы они в РИНЦы при всей их влиятельности? Я в этом сильно сомневаюсь. Ведь чтобы в такой индекс попасть, надо, чтобы тебя не только назвали в статье, но и упомянули в списке литературы, дав в тексте сноску на номер из этого списка. Но в нашем мире считается почти моветоном каждый раз давать та-кую сноску. Таким образом, Ньютоны и Бойли с Мариоттами, Омы и Лен-цы окажутся с нулевым h-индексом и в РИНЦ не попадут. Правда, нам мо-гут сказать, что те, кто использует индекс Хирша, используют его, по умол-чанию приняв правило применять его только к тем исследователям, кото-рые умерли не позже такого-то года. Правда, нигде подобное умолчание найти не удается.

***

Кажется, нет ученого, который не проклинал бы (хотя бы молча) h-индекс, ломающий судьбы отдельных людей и науки в целом. Казалось бы выход – и выход очень простой – существует: надо просто запретить этот показатель, и все вздохнут спокойно. Но, думаю, все не так просто.
Как мы видим, имеется множество сомнений в применения науко-метрического подхода к измерению научного влияния авторов. И, кроме перечисленных, можно привести множество других аргументов. Наиболее серьезными среди них могли бы считаться те аргументы, которые обраща-ют наше внимание на факторы, связанные с личностными особенностями автора, с его отношением к той или иной проблеме, с многими другими случайными факторами, вплоть до влияния погоды на настроение автора. Иными словами, рассмотрение влияния ученого неминуемо должно выйти за пределы наукометрии и стать объектом внимательного рассмотрения со стороны других наук. Не последнее место, на мой взгляд, должна занять психологическая критика наукометрического подхода.
Уже в начале такого психологической критики возникает сомнитель-ный, с математической (наукометрической) точки зрения термин «сомне-ние». Этот термин имеет явную психологическую окраску. Эта окраска, естественно, не принимается в расчет ни самим Х.Хиршем, ни другими наукометрами, поскольку «настоящий ученый», не желая быть «психологи-стом», такие аргументы не принимает. Но мы, будучи психологами, не мо-жем такие особенности не учитывать. Именно к таким психологическим особенностям мы хотим обратиться.
Как говорил А.С.Пушкин, «не продается вдохновенье, но можно ру-копись продать»! Современный ученый не чурается подобных идей: учено-му тоже нужно есть, пить, ему нужен новый смартфон и новый компьютер. Рукопись продается. Собственно, этим и занимается НЭБ. Но занятия по-добной работой почему-то всегда приводят людей, далеких от психологии, к логическим ошибкам, одной из которых является смешение понятий.
В современной наукометрике все время происходит подмена двух по-нятий: «влияние» и «влияние в науке». Возьмем простой пример. Кто явля-ется самым влиятельным человеком в той или иной организации? Каждый легко даст ответ: руководитель этой организации. И такой руководитель может совсем не разбираться в той сфере, которой он собрался руководить. Главное, как сегодня принято говорить, чтобы он был хорошим менедже-ром, то есть умел управлять сотрудниками. Вместо понятий «физик», «биолог», «психолог», таким образом, главным в научной организации ста-новится понятие «сотрудник». Но это верно только для руководителей. Пе-рестанут ли «сотрудники» от такой подмены понятий быть физиками, био-логами, психологами? Разумеется, нет! Тут-то и возникает антагонистиче-ское противоречие между современным менеджментом и наукой. И выли-вается это противоречие в неразбериху понятий «влияние» и «влияние в науке».
Должен ли быть руководитель влиятельным лицом в той сфере, кото-рой он руководит? Большинство руководителей, очевидно, ответит: не дол-жен, но желательно. Но как сделать себя не просто влиятельным, но влия-тельным в науке? Тут-то и приходит на помощь математика в виде разнооб-разных индексов. Руководители просто начинают писать тексты (как пра-вило, при помощи своих сотрудников, иной раз попадающих в соавторы) на околонаучные темы. Например, директор школы может написать, как, по его мнению, правильнее рассаживать детей во время занятий. Или руково-дитель университета – о том, как замечательно был отремонтирован глав-ный корпус руководимого им вуза. Уже одно упоминание научной области, в которой пребывает такой руководитель, приводит его работу в РИНЦы, для чего, разумеется, первоначально подсчитывается h-фактор его влияния. Но, поскольку этот индекс принято считать показателем научного влияния, то подмена подходит к своему завершению, и влияние руководителя пре-вращается в научное влияние.
Но есть еще один термин, который часто имеют в виду ученые, когда используют наукометрические методы для оценки своих работ. Этот тер-мин имеет психологическое содержание, но поскольку естествоиспытатели зачастую все еще находятся под влиянием термина «психологизм» - терми-на, введенного в науку лет сто назад и имеющего в естествознании отрица-тельную коннотацию – этот термин практически не используется в контек-сте рассматриваемых нами проблем. Термин этот пытается охватить такие явления психологического характера, которые и сегодня зачастую рассмат-ривается как нечто находящееся за пределами «настоящей науки».
Действительно, когда ученый измеряет свои индексы, он хочет полу-чить не только количественную оценку своего «научного влияния». Ученый стремится найти меру того качества, которое психологи называют способ-ностями, талантом, гениальностью. Может быть – вдохновением. Иначе го-воря, мы обнаруживаем еще один термин, который пытается измерить наукометрия: «влияние», «научное влияние» и третий термин, который за-труднительно назвать каким-то одним словом. Условно, назовем его «вдох-новение». Перед нами стоит задача каким-то образом упорядочить содер-жания этих терминов, как-то их соизмерить. Для этого нам требуется то или иное средство. Попробуем в качестве такого средства использовать шкалирование.

***

В науке считается, что все предметы ее изучения можно прошкалиро-вать одним из четырех способов и, соответственно, расположить на одной из четырех шкал. Если это просто разные вещи, они размещаются на шкале наименований; если между предметами можно установить отношение «больше-меньше», их место – ранговая (или порядковая) шкала; если вещи поддаются арифметическим операциям «сложение-вычитание», разместим их на интервальной (разностной) шкале; наконец, если вещи поддаются операциям «умножение-деление», их место на абсолютной шкале (на шкале отношений).
Выше мы выяснили, что в сознании наукометристов фактически аг-глютинированы три разных понятия: «влияние», «научное влияние» и «вдохновение» («талант», «способности», «гениальность» и т.п.). Попробу-ем разместить эти понятия на той или иной шкале.
Шкала наименований предполагает, что размещаемые на ней предме-ты или явления содержат в себе разные признаки. Таким образом, «влия-ние», «научное влияние», «вдохновение» легко размещаются на шкале наименований. На этой шкале вообще можно разместить любое понятие, поскольку мы изначально, обозначая явление словом, предполагаем, что данное явление отличается каким-то признаком от других явлений. Скажем, познание отличается от отношения. Мы можем даже не знать, в чем заклю-чается это отличие, но интуитивно обязательно такое различие подразуме-ваем. Шкалу наименований правомерно назвать шкалой качественной. По-вторяю, на ней мы можем расположить любые термины, которые есть в нашем лексиконе.
Иное дело – три другие шкалы. Предметы, которые мы можем здесь расположить по определению должны иметь какие-то количественные ха-рактеристики. В психологии известны некоторые попытки использовать ранговую шкалу. Например, любой психолог скажет: талант это – нечто большее, чем способности, а гениальность – нечто большее, чем талант. Но это означает лишь то, что мы опять же подразумеваем, то есть интуитивно чувствуем, и в способностях, и в таланте, и в гениальности наличие неко-торого единого признака, который мы и пытаемся соотнести у этих трех явлений. Однако, что мы ничего знаем об этом признаке. Фактически, на ранговой шкале мы размещаем наши смутные, неопределенные, субъек-тивные оценки, которые дает нам наш внутренний мир.
Но тут появляется математика, и наукометрия настойчиво требует от нас определенно сказать «на сколько» одно наше вчерашнее настроение лучше сегодняшнего, «во сколько раз» я утром был эмоциональнее. И предлагает нам для этого две оставшиеся шкалы.
Чем же отличаются две оставшиеся шкалы: шкала порядка и шкала отношений? Тем, что явления, располагающиеся на этих шкалах, должны иметь какую-то единицу, при помощи которой мы эти явления можем из-мерять. Одно стадо коров больше другого стада, потому что в первом на двадцать коров больше. И мы располагаем стада на разностной шкале или даже на шкале отношений. Правда, на шкале отношений явления мы мо-жем расположить, если имеем представление о точке отсчета, с которой свой подсчет мы ведем (вспомним понятие абсолютного нуля в физике). И в психологии предпринимались попытки найти такие единицы. Вспомним, хотя бы теорию единицы психологического анализа Л.С.Выготского. А применить «абсолютный нуль» в психологии пытался Г.Фехнер в XIX веке, используя понятие абсолютной чувствительности. Но до сих пор эти по-пытки не привели к успеху.
Возвратимся теперь к h-индексу и зададимся вопросом: какие едини-цы применяет Х.Хирш (впрочем, и все остальные наукометры)? Напомню, что считать наукометрия собирается то ли влияние, то ли научное влияние, то ли вдохновение. В каких же единицах? В качестве единицы здесь приме-няется одно цитирование данного автора.
Но такой подход, как мы уже видели, вызывает в свой адрес множе-ство замечаний. А я бы добавил к этому списку количество упоминаний то-го или иного автора без выходных данных его работы. Чем не индекс? И мы снова попадаем в заколдованный круг, пытаясь измерить научное влияние при помощи чувственно воспринимаемых цитат.
Что же измеряет наукометр? Что измеряет вообще естествознание? Разумеется, предметы. В нашем случае такими предметом является цитата. Но любой студент-второкурсник психологического факультета знает (дол-жен знать), что предмет не существует в безвоздушном пространстве. Лю-бой предмет, в том числе и предмет наукометрии существует во взаимодей-ствии с чем-то другим. Скажем, в нашем случае, как только мы говорим о самоцитировании, тут же возникает проблема, которая вовсе не сводится к вопросу «накручивать или не накручивать»: есть много ситуаций, когда са-моцитирование просто необходимо.
И тут любой студент-психолог вспомнит про Вундтовские зоны пер-цепции и апперцепции, про гештальтистские «фигуру и фон». Любой предмет не существует см по себе, он обязательно существует во взаимо-действии с другими предметами, с предметами, находящимися в зоне пер-цепции, с предметами, составляющими фон. Это означает, что наукометри-ческий предмет просто не может существовать, учитывая только саму ци-тату. Мы непременно должны еще учесть условия, в которых данное цити-рование осуществлялось. Социальный контекст, особенности личности ис-следователя, наконец, законы развития науки – все это и создает тот непо-вторимый контекст, в котором создаются наукометрические формулы. Иными словами, создающая внутренний мир наукометра психологическая система (Левин, 2001; Выготский, 1982: Леонтьев, 1075), прямо-таки не оставляет ему возможности оставаться в пределах математических расче-тов.
Отсюда и возникают разнообразные наукометрические казусы. Например, «Григорий Перельман был выдвинут на две самые престижные международные премии в области математики (но отказался их получать) за результаты, опубликованные в трех препринтах в arхiv.org. На эти рабо-ты имеется множество ссылок в журналах, индексируемых Web of Science, однако поскольку препринты не индексируются этой системой, то все ссылки на них не учитываются при подсчете ИЦ» (Полянин, 2014, с.131). А «Жорес Алферов… констатировал, что в момент получения Нобелевской премии его индекс цитируемости был близок к нулю» (Борисов, // https://kpfu.ru/news/novosti-i-obyavleniya/p).
Но с проблемой контекста связана еще более важная, уже науковедче-ская, а не только наукометрическая, проблема. Когда мы пытаемся описать свой предмет, у нас есть две возможности такого описания. В одних случа-ях исследователь пытается описать свой предмет, как можно более тща-тельно отвлекаясь от всего, что предмет окружает. Во втором случае автор пытается как более тщательно ввести свой предмет в этот контекст. Есте-ственно, что во втором случае описание требует более обширного формата. Но всевозможные форматы индексирования, как правило, требуют «уло-жить» свое описание в заданный формат (формат статьи). Понятно, что в таких условиях автор должен отвлекаться от всевозможных контекстных факторов, которые неизбежно искажают его представление, которое он хо-чет умести в своем тексте.
В итоге, одной из печальных закономерностей при использовании та-ких индексов становится вымывание из научного обихода целостного предмета исследования. Это связано с тем, что монографии начинают иг-рать все меньший «вес» в оценке научного влияния. Действительно, подоб-ное влияние оценивается по числу публикаций, а не по их научному значе-нию. Соответственно, формат статьи приобретает, таким образом особое значение: и правда, легче написать 10 статей, чем одну монографию объе-мом 20 или 30 авторских листов: волей – неволей исследователь формирует у себя своеобразное клиповое сознание. Но в статье, просто в силу ее огра-ниченного объема, невозможно охватить всю многогранность предмета. Для этого существует формат монографии. Но именно он может оказаться за пределами внимания научного сообщества. В итоге наука дробится на отдельные «части» предмета, наступает эпоха узкой специализации, когда специалист знает если не все, то многое о кусочке реальности, но не знает, что собой представляет эта самая реальность. Но, как мы убеждены, пред-мет не бывает изолированным от других вещей. Он – предмет – всегда су-ществует в контексте, в некотором окружении других вещей и событий. Но именно этот контекст неминуемо оказывается утраченным при наукометри-ческом подходе. Как пишет современный автор, «книги обычно являются итогом многолетней работы. Авторы часто включают в них ряд новых ре-зультатов, не опубликованных в других источниках (это приносит несо-мненную пользу, поскольку увеличивает число потенциальных читателей и, соответственно, тираж книги). Исключение книг при стандартной схеме подсчета ИЦ — очевидная нелепость, поскольку в ИЦ в полной мере учи-тываются обзорные статьи, вообще не содержащие новых результатов» (Полянин, 2014, с.131)).
С этим связано и изменение цели ученых. Если еще в конце прошло-го века такой целью оставалось получение новых знаний и информирова-ние коллег, то сегодня такой целью становится публикация статьи и при-влечение к своему текста внимания. Это влечет за собой не только научные «добавки» к научному тексту. Научная работа превращается постепенно в своеобразную ветвь блогерства. Может быть, сегодня это не очень заметно, но, убежден, что абсолютизация наукометрических индексов вскоре неиз-бежно к этому приведет.
Нельзя сказать, что наукометры вообще не осознают сложившееся положение. Но это понимание – интуитивное. И все же такое понимание дает возможность сделать такое высказывание: «Индекс Хирша — нелепое наукообразие, его вообще следует исключить из анализа эффективности де-ятельности ученых» (Полянин, 2014, с.141). Но автор неправ. Не h-индекс следует исключить: наукометрический подход в целом является «нелепым наукообразием».

***

Подводя итог приведенным рассуждениям, мы не можем не сказать несколько слов о тех этических последствиях, к которым приводит абсолю-тизация нукометрического подхода.
Сам по себе этот подход ни плох, ни хорош. Это – всего лишь одна из попыток найти количественную меру научного значения того или иного ис-следователя. Не с Хирша начались такие попытки, не h-индексом они за-кончатся. Другое дело, в чьих руках находится инструмент: молотком мож-но строить храм, а можно использовать в качестве орудия убийства.
К сожалению, сегодня наукометрия оказалась в невежественных ру-ках администраторов, которые далеки не только от наукометрии, но и от той науки которой они руководят. Сегодня средством измерения таланта избран индекс Хирша, завтра может оказаться любой другой наукометриче-ский прием. В итоге подобное средство стало орудием не просто научного, но административного ранжирования. В итоге, научные сотрудники «тасу-ются» на административной шкале, словно дамы и короли в карточной ко-лоде в руках опытных шулеров: профессор, проработавший лет двадцать в своей должности может с легкостью неимоверной превратиться в доцента, доцент – в преподавателя. О моральных издержках таких профессоров и доцентов не стоит и говорить: десятилетиями проработав в своей должно-сти, они в мгновение ока превращаются в аферистов, занимавших не свое место.
Но администраторы не учитывают и другой фактор. В данной ситуа-ции сам научный институт или вуз оказываются под подозрением: много лет там работали научные сотрудники, которые оказались не на своем ме-сте. Достойна ли подобная организация своего статуса? Вышестоящие ад-министраторы получают еще один рычаг влияния. Можно согласиться со следующим высказыванием: «Процесс формирования и развития организа-ционной культуры на примере РИНЦ однозначно дает следующий резуль-тат: отсутствие управления процессом доведения до внешних по отноше-нию к организации пользователей ценностей–целей и ценностей–методов (являющихся неотъемлемой частью организационной культуры) может приводить к провокации конфликтных ситуаций и формированию негатив-ных легенд, ухудшающих имидж организации» (Назаренко, 2013, с.186).
А вот НЭБ я бы трогать не стал. Нет ничего противозаконного в том, что люди хотят денег. Виноваты те, кто позволяет бизнесменам осуществ-лять подмену понятий. Но их имена, думаю, забудутся. Впрочем, пока су-ществуют деньги, они непобедимы.
И последнее. Автор данной статьи выражает глубокую благодарность доктору физико-математических наук В.В.Миронову, из расчетов которого (Миронов, 2020) следует, что мой вклад в науку выше, чем у основателя со-временной высшей алгебры Э.Галуа и равен научному вкладу А.Эйнштейна. Перефразировав известную киноцитату, скажу так: в науко-метрии я – Эйнштейн.

Литература:
Борисов А.В. Погоня за оленями // https://kpfu.ru/news/novosti-i-obyavleniya/p
Выготский Л.С. О психологических системах // Д.С.Выготский Собр. Соч., т. т.1.  М., Педагогика, 1982, с.109-131.
Георгиев Г. Индекс Хирша надо исключить из оценки ученых. Наука и технологии России, 2011, 17 нояб.
Левин К. Динамическая психология. М., Смысл, 2001.
Леонтьев А.Н. Деятельность. Сознание. Личность. М., Политиздат, 1975.
Миронов В.В. Новые индексы публикационной активности // Вест-ник Российской академии наук, 2020, том 90, № 10, с. 959–966.
Назаренко М.А. Организационная культура российского индекса научного цитирования и G-индекс // Международный журнал прикладных и фундаментальных исследований. №7, 2013, с.186-187.
Полянин А.Д. Недостатки индексов цитируемости и Хирша и ис-пользование других наукометрических показателей. Математическое моде-лирование и численные методы, 2014, № 1, с. 131–144.
Руководители eLIBRARY.RU: «Исключенные журналы фактически представляют собой дно» // Системный Блокъ. Скажи мне, какой у тебя индекс Хирша, и я скажу, кто ты // Федоров П.П., Попов А.И. Индекс Хирша выхолащивает существо научного исследования // https://ss69100.livejournal.com/5287600.html, 2020.
Hirsch J. E. An index to quantify an individual's scientific research out-put (англ.) // Proceedings of the National Academy of Sciences of the United States of America. — 2005. — Vol. 102, no. 46. — P. 16569—16572.


Рецензии