
Создание текста
Русская версия (перефразированный текст)
Ученые Самарского университета разработали инновационную модель, предназначенную для точного определения объема вклада искусственного интеллекта (ИИ) в процесс создания текстовых материалов. Результаты этого исследования были опубликованы в научном журнале “Семиотические исследования”.
На фоне стремительного внедрения нейросетей в научную сферу возникает острый вопрос о том, насколько правомерно признавать системы ИИ полноценными соавторами публикаций. Социологи из Самарского национального исследовательского университета имени академика С.П. Королева отмечают, что в мировой академической практике уже фиксируются случаи, когда ИИ указывается в качестве соавтора научных статей, а порой и как единственный создатель работы.
Исследователи провели анализ процессов создания текстов с участием ИИ и изучили соответствующие прецеденты в международных научных базах данных, таких как Web of Science и Scopus. В ходе анализа было выявлено четыре статьи, где ChatGPT был указан как автор, причем в двух случаях — как единоличный. Стоит отметить, что в базе Scopus как минимум две публикации с ИИ-соавторством были обнаружены, и в одном из этих случаев чат-бот был позднее исключен из списка авторов по требованию редакции журнала.
По мнению ученых, полученные данные указывают на необходимость пересмотра традиционного понятия авторства в контексте активного использования генеративного ИИ. В новой парадигме человек выступает не только как непосредственный творец, но и как куратор, редактор и интерпретатор контента. Наталья Масленкова, доцент кафедры социологии и культурологии Самарского университета, комментирует: “Мы пришли к выводу, что такие работы обладают гибридной природой. Этот подход открывает путь к новым моделям `распределенного` и `переплетенного` авторства, где ИИ становится участником творческого процесса, но конечная ответственность за содержание остается за `исследователем-человеком`”.
Особое внимание университетские исследователи уделили этическим аспектам, связанным с применением генеративного интеллекта для написания научных текстов. Существуют риски академического недобросовестности, например, когда пользователь выдает полностью сгенерированный ИИ контент за свой собственный, не выполняя функций редактора и ответственного автора. “Наши выводы могут лечь в основу этических и правовых норм, повышающих прозрачность использования ИИ и предотвращающих злоупотребления. Это особенно важно для образовательной, научной и медийной сфер, где возникает вопрос, кто несет ответственность за контент, созданный с участием ИИ”, — пояснила Масленкова.
Уникальность проделанной работы, по словам специалистов, заключается в ее всестороннем характере: она не ограничивается исключительно правовым анализом, а интегрирует философские, социокультурные и юридические подходы. Исследователи проводят параллели между современными практиками работы с ИИ и теориями распределенного и сетевого авторства, что позволяет глубже осмыслить трансформацию роли человека и машины в процессе создания текстов. Масленкова также выразила одну из точек зрения, согласно которой ИИ — это “стохастический попугай”, способный лишь имитировать человеческую речь на основе статистических данных. Ее “субъектность” на текущий момент является социальным конструктом, отражающим коллективный вклад разработчиков и пользователей.
Следующим этапом для ученых станет разработка конкретных рекомендаций по прозрачному и ответственному применению генеративных моделей в образовательной и научной сферах. Также планируется изучение того, как эволюционируют представления об авторстве у различных социальных групп по мере дальнейшего распространения технологий ИИ.
English Version (Rephrased and Translated Text)
Scientists from Samara University have developed an innovative model designed to accurately determine the extent of artificial intelligence`s (AI) contribution to text creation. The findings of this research have been published in the scientific journal “Semiotic Studies.”
Amidst the rapid integration of neural networks into scientific activities, a pressing question arises: should AI systems be recognized as full co-authors of academic publications? Sociologists from Samara National Research University, named after Academician S.P. Korolev, note that global academic practices already show instances where AI is listed as a co-author of scientific articles, and sometimes even as the sole creator of a work.
The researchers analyzed the processes of text creation involving AI and examined relevant precedents in international scientific databases such as Web of Science and Scopus. Their analysis revealed four articles where ChatGPT was listed as an author, with two cases showing sole authorship. Notably, in the Scopus database, at least two publications with AI co-authorship were found, and in one of these cases, the chatbot was later removed from the author list at the journal`s request.
According to the scientists, the collected data indicates the necessity of re-evaluating the traditional concept of authorship in the context of active generative AI use. In this new paradigm, humans act not merely as direct creators but also as curators, editors, and interpreters of content. Natalia Maslenkova, an Associate Professor at the Department of Sociology and Culturology at Samara University, commented: “We concluded that such works possess a hybrid nature. This approach paves the way for new models of `distributed` and `intertwined` authorship, where AI participates in the creative process, but the ultimate responsibility for the content remains with the `human researcher`.”
The university`s researchers paid particular attention to the ethical issues associated with using generative intelligence for writing scientific texts. Risks of academic dishonesty exist, for example, when a user presents entirely AI-generated content as their own, without performing the functions of an editor and responsible author. “Our findings can form the basis for ethical and legal norms that increase transparency in AI use and prevent abuse. This is especially important for the educational, scientific, and media spheres, where the question arises of who bears responsibility for content created with AI,” Maslenkova explained.
The uniqueness of this work, according to the specialists, lies in its comprehensive nature: it is not limited to purely legal analysis but integrates philosophical, sociocultural, and legal approaches. The researchers draw parallels between contemporary AI practices and theories of distributed and network authorship, allowing for a deeper understanding of the evolving roles of humans and machines in text creation. Maslenkova also presented one perspective, suggesting that AI is currently a “stochastic parrot,” only capable of mimicking human speech based on statistical data. Its “subjectivity” at present is a social construct reflecting the collective contribution of developers and users.
The next step for the scientists will be to develop concrete recommendations for the transparent and responsible application of generative models in educational and scientific fields. They also plan to study how perceptions of authorship evolve among different social groups as AI technologies continue to spread.

