Научная эффективность в работе. П. А. Биргер
align="center">
36
Bianco M., Gras N., Sutz J. Academic Evaluation: Universal Instrument? Tool for Development? // Minerva. 2016. Vol. 54, iss. 4. P. 399–421.
37
Watermeyer R., Olssen M. ‘Excellence’ and Exclusion: The Individual Costs of Institutional Competitiveness // Minerva. 2016. Vol. 54, iss. 2. P. 201–218.
38
Elliott D. B. Salami slicing and the SPU: Publish or Perish? // Ophthalmic and Physiological Optics. 2013. N 33 (6). P. 625–626; Фуллер С. Социология интеллектуальной жизни. Карьера ума внутри и вне академии. М.: Издательский дом ДЕЛО, 2018. С.9.
39
Даже простое перечисление всех источников, критикующих воздействие наукометрии на научную деятельность и обнаруживающих то существенное, что остается неучтенным, представляет собой почти бесконечную задачу. Отчасти вклад в ее выполнение был внесен созданием «Аналитического обзора состояния проблемы эффективности научных исследований». URL: http://philosophy.spbu.ru/userfiles/kathedras/scitech/Shipovalova/effectiveness_research/Analiticheskii_obzor_dopolnen-nyi(1).pdf (дата обращения: 20.12.2017).
40
Mingers J. Leydesdorff L. A Review of Theory and Practice in Scientometrics // European Journal of Operational Research. 2015. Vol. 246, N 1. P. 1–19; Руководство по наукометрии: индикаторы развития науки и технологий / М. А. Акоев, В. А. Маркусова, О. В. Москалева, В. В. Писляков. Екатеринбург: Изд-во Уральского ун-та, 2014.
41
Hicks D., Wouters P., Waltman L., Rijcke S., Rafols I. Bibliometrics: The Leiden Manifesto for Research Metrics // Nature. 2015. Vol. 520, N 7548. P. 429–431; Левин В. И. Библиометрические показатели или экспертные оценки: как оценивать результаты научной деятельности // Современное образование. 2016. № 4. С. 11–28.
42
Priem J., Taraborelli P., Groth P., Neylon C. Altmetrics: A manifesto. 2010. URL: http://altmetrics.org/manifesto (дата обращения: 20.06. 2017); Чеботарева Е. Э. Научные исследования в контексте цифровой экономики // International Journal of Open Information Technologies. 2017. Vol. 5, N 11. P. 36–40.
43
В первую очередь задействованы системы репрезентации и оценки, используемые в Великобритании. Во-первых, Research Excellence Framework, которая была введена для оценки научных и образовательных организаций в 2014 году и с этого момента активно обсуждается ее участниками и наблюдателями (URL: http://www.ref.ac.uk/2014/ (дата обращения: 20.12.2017)). Экспертная оценка – основное орудие этой системы. Во- вторых, система Snowball Metrics. Главной особенностью ее является то, что она вводится снизу и служит прежде всего интересам самого научного сообщества, его внутренней и внешней репрезентации. Характерно, что продвижение этой системы для использования фондами и администраторами с целью оценки научных исследований и распределения финансирования также признается делом самого научного сообщества (Snowball Metrics Recipe Book / L. Colledge. URL: https://www.snowballmetrics.com/wp-content/uploads/snowball-recipe-book_HR.pdf (дата обращения: 20.12.2017)). Нельзя не отметить одну любопытную деталь, относящуюся к применению основных элементов этой системы в России – позиционирование ее в первую очередь в качестве основания управления (Соболев В. А. PURE: Централизованная система управления научными исследованиями. Презентация. URL: http://www.library.spbu. ru/blog/wp-content/uploads/2015/04/PUREHostedEditionValueStory2014. pdf (дата обращения: 10.12.2017)).
44
Отчасти такая полнота показателей представлена в действующей в МГУ системе ИСТИНА (Интеллектуальная Система Тематического Исследования НАукометрических данных) (URL: https://istina.msu.ru/ (дата доступа: 20.12.2017)). Однако в связи с ограниченной видимостью материалов данной системы за пределами самого сообщества ее функции репрезентации недостаточны. Среди конструктивных моментов разработки и использования ИСТИНЫ следует отметить то, что в формировании групп значимых показателей действительно принимало участие научное