Искусственный интеллект как инструмент проверки на
Создание программного обеспечения, способного автоматически выделять элементы научной новизны, может не только повысить прозрачность экспертных процедур, но и снизить риски формального подхода и коррупции в системе научной аттестации. Более того, подобные инструменты способны стать мотивационным фактором, стимулирующим исследователей к генерации подлинно оригинальных научных идей, а не к механическому следованию формальным требованиям к написанию квалификационной работы.
Вместе с тем, следует ясно обозначить границы применимости таких решений. Автоматическая система не может и не должна подменять экспертную оценку. Без участия квалифицированного специалиста определить, обладает ли идея действительной новизной, невозможно. Кроме того, без доступа к закрытым научным базам данных (например, Scopus, Web of Science, eLIBRARY) точность таких проверок будет неизбежно ограничена. Также необходимо учитывать возможные ошибки семантического анализа: машинное определение уникальности научной идеи пока остаётся приближённым.
Тем не менее, программные решения, ориентированные на выявление признаков новизны, являются важным вспомогательным инструментом. Их задача — не выносить суждение, а предоставлять экспертам дополнительные данные и ориентиры. Такие утилиты могут выполнять ряд ключевых функций:
1. Анализ формулировок новизны
Поиск типовых выражений: «впервые предложено», «разработан новый подход», «в отличие от ранее известных методов», «получены результаты, не встречающиеся в литературе».
Оценка логической структуры раздела «Научная новизна».
2. Сравнение с публикациями
При наличии подключения к научным базам возможно:
Поиск совпадающих формулировок, понятий и методик.
Анализ уникальности научного подхода.
Проверка на наличие аналогичных публикаций.
3. Семантический анализ
С использованием языковых моделей (например, BERT, GPT) возможен:
Сравнительный анализ ключевых идей и гипотез с другими работами.
Поиск смысловой близости к уже опубликованным исследованиям.
4. Интерфейсные функции
Загрузка PDF- или текстовых файлов.
Автоматическое извлечение аннотации, введения, разделов новизны.
Подсказки по усилению формулировок (например: «превышает точность аналогов на 12%»).
Генерация отчёта с вероятностной оценкой оригинальности.
Разработка таких утилит требует как технической реализации, так и методологического сопровождения. Однако нейросети уже сегодня позволяют создавать базовые прототипы. Так, модели GPT способны за считанные секунды сгенерировать веб-приложение на Python, принимающее текст диссертации, извлекающее ключевые фразы и выделяющее потенциальные элементы новизны. Подобная разработка легко масштабируется и может быть адаптирована под локальные требования вузов и экспертных советов.
Важно отметить: по мере появления новых инструментов будут создаваться и способы их обхода. Это уже наблюдалось в практике борьбы с плагиатом. Однако это не отменяет основной задачи — формирование технологической и этической среды, в которой научная честность становится нормой, а не исключением.
В конечном счёте, подобные инструменты нужны не только для борьбы с нарушениями, но и для защиты самой идеи науки — как сферы поиска истины, а не канала для административной или материальной выгоды. Именно поэтому так важно развивать технологии, способные поддерживать культуру интеллектуальной добросовестности.
И последнее. Нейросеть, ChatGPT, например, создаёт базовый прототип утилиты на Python с использованием Streamlit за считанные секунды. Это легко проверить. Готовая утилита принимает PDF или текстовые файлы диссертаций, извлекает текст, ищет формулировки, указывающие на научную новизну, выводит потенциально важные фрагменты для анализа.
ChatGPT готов также, добавить следующие функции:
Сравнение с научными публикациями (при наличии доступа к базе),
Оценку семантической близости к известным работам,
Интерфейс редактирования формулировок.
И всё это красиво пакуется в веб-приложение или разворачивается локально тоже, за считанные секунды.
Пример архитектуры такой утилиты (Python) Получена через ChatGPT
Frontend: Streamlit (или Flask) — для простого интерфейса.
Backend:
spaCy / transformers — для NLP.
scikit-learn — для классификации формулировок.
requests — для API к научным базам (если получится).
pdfminer или PyMuPDF — для чтения PDF.
import re
from typing import List
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.metrics.pairwise import cosine_similarity
import fitz # PyMuPDF for PDF parsing
# --- Text processing functions ---
def extract_text_from_pdf(file) -> str:
doc = fitz.open(stream=file.read(), filetype="pdf")
text = "\n".join([page.get_text() for page in doc])
return text
def find_novelty_phrases(text: str) -> List[str]:
novelty_patterns = [
r'впервые [^.,;\n]+',
r'нов[аяыеий]* методик[аиеу]',
r'разработан[ао]? .*?\.',
r'предложен[ао]? .*?\.',
r'отличие .*? заключается в',
r'не встреча[ею][тся]? в литературе',
r'научная новизна .*?\.'
]
found = []
for pattern in novelty_patterns:
found += re.findall(pattern, text, re.IGNORECASE | re.DOTALL)
return found
def get_relevant_sentences(text: str) -> List[str]:
sentences = re.split(r'(?<=[.!?])\s+', text)
keywords = ['новизна', 'впервые', 'отличие', 'предложен', 'разработан']
return [s for s in sentences if any(k in s.lower() for k in keywords)]
def main():
print("Анализ научной новизны в тексте диссертации")
path = input("Введите путь к PDF или текстовому файлу: ").strip()
if path.lower().endswith(".pdf"):
with open(path, "rb") as f:
text = extract_text_from_pdf(f)
else:
with open(path, "r", encoding="utf-8") as f:
text = f.read()
print("\nФРАГМЕНТЫ С НАУЧНОЙ НОВИЗНОЙ:")
novelty_phrases = find_novelty_phrases(text)
if novelty_phrases:
for phrase in novelty_phrases:
print("-", phrase.strip())
else:
print("Формулировки научной новизны не найдены.")
print("\nКОНТЕКСТНЫЕ ПРЕДЛОЖЕНИЯ:")
relevant = get_relevant_sentences(text)
for sentence in relevant:
print("•", sentence.strip())
if __name__ == "__main__":
main()
Свидетельство о публикации №225051000830