Введение / Introduction
Информатизация и цифровая трансформация образования – актуальный тренд развития высшей школы в условиях перехода к цифровой экономике. Преимущества цифровизации образовательной деятельности неоспоримы, они проявляются на всех уровнях непрерывного образования и заключаются в широкой реализации информационно-коммуникационных технологий, расширении масштабов внедрения дистанционного и смешанного обучения, массовых открытых онлайн-курсов (MOOC), стратегий «умного образования», технологий искусственного интеллекта (ИИ), иммерсивного обучения и т.д. Однако вместе с преимуществами, цифровая трансформация образования несет в себе немалые угрозы и риски этического характера, проявляющиеся, прежде всего, в нарушении норм и правил академической этики вследствие распространения ряда негативных явлений, таких как плагиат, имитация образовательной и исследовательской деятельности, ложное авторство научных публикаций, выполнение курсовых и дипломных работ на заказ и т.п.
С каждым годом все большую актуальность приобретают вопросы правового регулирования этических проблем, обусловленные интеграцией новейших цифровых технологий в образовательный процесс высшей школы. В данном контексте вузами и крупными технологическими компаниями разрабатываются этические кодексы использования искусственного интеллекта и робототехники. Так, в нашей стране по инициативе ассоциации «Альянс в сфере искусственного интеллекта» был утвержден «Кодекс этики искусственного интеллекта» [1], в котором раскрываются этические принципы и правила поведения при использовании технологий искусственного интеллекта в разных сферах деятельности. Кодекс провозглашает принципы гуманистического мировоззрения и человеко-ориентированного подхода во взаимодействии с высокотехнологичными интеллектуальными системами. Кодексы академической и профессиональной этики, правила цифровой этики и иные документы этико-нормативного регулирования, направленные на профилактику академической нечестности, как правило, имеются в большинстве зарубежных и российских университетов. Так, например, «Кодекс академической этики» НИУ ВШЭ [2] формулирует принципы этичного академического поведения в университетском сообществе, в том числе определяет механизмы выявления и разрешения случаев нарушения академической этики, включая запрет на списывание и заимствование студентами результатов чужой интеллектуальной деятельности, нарушение конфиденциальности частной информации и т.д. Алгоритм построения кодекса профессиональной этики в цифровом пространстве университета и его реализация на примере ТГПУ им. Л. Н. Толстого описываются в исследовании Ю. В. Назаровой и Е. Н. Чесновой [3], которые предлагают модель этико-нормативного регулирования в контексте новых моральных дилемм, возникающих в связи с применением цифровых технологий в образовательном процессе и нарушений нравственного характера в условиях этического выбора.
Деятельность академического сообщества и правовых организаций, направленная на урегулирование этических вопросов при использовании цифровых технологий, нейронных сетей и других систем искусственного интеллекта, в настоящее время активизировалась как в нашей стране, так и за рубежом. В этой связи в тезаурус педагогической науки постоянно вводятся новые понятия. Цель настоящего исследования– выявить, систематизировать и описать часто встречающиеся и наиболее востребованные ключевые понятия концептуального поля цифровой академической этики.
Обзор литературы / Literature review
Анализ современной отечественной и зарубежной научной литературы показывает, что тема освещения угроз и рисков, возникающих в процессе некорректного в этическом отношении использования цифровых технологий в образовательном процессе высшей школы, с каждым годом становится все более актуальной. Такие негативные явления, как плагиат, использование шпаргалок, списывание, заимствование чужих текстов и т.п., давно и достаточно широко распространены в вузовской практике. Соответствующие понятия, обозначающие перечисленные явления, также прочно укоренились в лексиконе педагогической науки. Кроме того, в последние годы появляются новые концепты (как отдельные термины, так и терминологические словосочетания), которые относительно недавно функционируют в поле русскоязычного академического дискурса, например, «гострайтинг», «рерайтинг», «копипаст», «ИИ-плагиат», «фишинг» и др. Далеко не все обучающиеся в высшей школе, так же, как и преподаватели, знают точное значение многих заимствованных терминов. Имеются и оригинальные, незаимствованные концепты (например, «имитации» в образовании, «теневое авторство», «ложное авторство», «академическое мошенничество» и др.), которые пока не нашли массового распространения в научно-педагогических источниках и поэтому не всем известны. Между тем, по мере роста негативных явлений в сфере академической этики, вызванных «неэтичным» применением студентами нейронных сетей, чат-ботов и других технологий искусственного интеллекта, растет внимание исследователей к данной проблематике и, одновременно, пополняется словарный состав педагогической терминологии.
Число исследований, посвященных вопросам цифровой аксиологии, цифровой этики и проблемам распространения практик академического мошенничества, неуклонно возрастает. Ниже мы проанализируем отдельные публикации последних лет (2022-2025 гг.), в которых раскрывается значение актуальных концептов академической этики и связанных с ними явлений.
В исследовании И. Н. Емельяновой, О. А. Тепляковой и Д. О. Теплякова [4], описывается типология и виды имитационной деятельности в образовании, такие как плагиат, сдача студентами чужих или заказных работ, «несанкционированное» обращение к материалам сети Интернет при прохождении тестирования, выполнение заданий по шаблону, деление вопросов при подготовке к семинарам и т.д.
А. Г. Бермус [5] систематизирует различные формы академического мошенничества, фальсификаций и имитационных практик в системе высшего образования, анализирует причины их возникновения и возможные меры борьбы с подобными негативными явлениями, рассматривая последние как онтологический вызов образованию XXI века в условиях общества потребления, которое подвержено глобальным процессам «макдональдизации» (купля-продажа образовательных и иных услуг) и «коммодификации» (превращение объектов в товар). Аналогичную тематику освещает Т. Е. Исаева [6], предлагая меры педагогической профилактики электронного академического мошенничества в вузе.
Л. П. Костикова, Н. Е. Есенина и А. С. Ольков [7] приводят результаты анкетного опроса студентов Рязанского государственного радиотехнического университета имени В. Ф. Уткина, предпринятого для выяснения отношения обучающихся к использованию искусственного интеллекта в образовательной среде. Согласно полученным данным, студенты весьма осмотрительно используют ChatGPT, понимая, что, даже не обращаясь к практикам академического мошенничества, посредством нейросетей можно получить некорректные данные, отражающие неточность, субъектность и предвзятое отношение ИИ, что, в конечном итоге, выливается в последствия в виде нарушения этических норм.
Вопросы понимания студентами соблюдения норм академической этики поднимаются в статье П. В. Сысоева, в которой представлены результаты эмпирического исследования [8]. Автор касается проблем плагиата и, конкретно, ИИ-плагиата как результата взаимодействия обучающихся с инструментами искусственного интеллекта – чат-ботами, нейросетями с генеративным искусственным интеллектом, такими как ChatGPT. Термин «ИИ-плагиат» – неологизм, появление которого в русском языке датируется периодом внедрения и распространения систем искусственного интеллекта в образовательной среде. Под ИИ-плагиатом исследователь понимает несанкционированное заимствование материалов генеративного искусственного интеллекта как следствие несоблюдения норм авторской этики. Обязанность образовательных организаций – целенаправленно проводить образовательную политику, направленную на предотвращение явлений ИИ-плагиата среди студентов.
Исследованию угроз и возможностей легитимного, этически-нормативного применения ChatGPT в образовательном процессе вуза посвящена публикация А. Г. Бермуса [9]. Преимущества, риски, перспективы, сильные и слабые стороны ChatGPT рассматриваются автором посредством SWOT-анализа. Педагогический анализ использования ChatGPT в образовательном процессе вуза представлен также в обзорной статье А. Г. Бермуса и Е. В. Сизовой [10], которые перечисляют такие негативно окрашенные мнения некоторых пользователей относительно оценки данного чат-бота, как «угроза авторскому праву», «когнитивная ловушка», «неспособность распознавать эмоциональный фон», «инструмент для хакеров», «средство лжетворчества», «основа фишинга» и т. п.
М. А. Староверова [11] отмечает, что вместе с интеграцией искусственного интеллекта в образовательный процесс появилось несколько типов проблем: проблемы в сфере педагогической этики (прозрачность алгоритма, возможности ошибок и неточности со стороны искусственного интеллекта, защита данных, личной информации и т.д.); проблемы роста академической нечестности, обусловленные человеческим фактором; вопросы разработки критериев оценивания норм цифровой этики; проблема цифрового неравенства обучающихся. Сравниваются обучающие видеоматериалы, созданные человеком и сгенерированные при помощи двух видов нейросетей – HeyGen и ChatGPT. Опрос студентов показал, что для них в настоящее время более предпочтительными представляются учебные ресурсы, разработанные человеком.
Т. В. Еременко рассматривает социологическую концепцию «треугольника мошенничества» применительно к феномену академического мошенничества в студенческой аудитории [12]. Исследователь считает, что побуждающими факторами, провоцирующими отдельных авторов нарушать принятые в академическом сообществе этические установления, выступают три компонента, образующие три стороны треугольника: наличие соответствующего давления или стимула; потенциальная возможность совершить мошенничество и имеющиеся причины для самооправдания. В другом своем исследовании [13] Т. В. Еременко на основе анализа публикаций российских авторов рассматривает инструментарий противодействия академической нечестности в среде студентов и аспирантов, дифференцируя такие понятия, как «академическое мошенничество», «академическая нечестность», «нечестное академическое поведение», «студенческие нарушения», «плагиат», «списывание», стиль работы «копипаст» (copy-paste) и др. В качестве результативных инструментов борьбы с нарушениями академической этики в вузе, по мнению автора, выступают меры предупреждения академической нечестности, методы выявления этических нарушений и применение соответствующих санкций против их виновников.
Стратегии реализации технологий генеративного искусственного интеллекта (ГИИ) в отечественных вузах рассматривают Д. П. Ананин, Р. В. Комаров и И. М. Реморенко [14]. Ученые перечисляют различные формы академической нечестности и приходят к выводу о необходимости принятия вузами этических и регулятивных норм применения ГИИ-сервисов, систематического анализа использования систем искусственного интеллекта в образовательном процессе, повышения уровня цифровой грамотности студентов и преподавателей. Главным параметром, отличающим этически корректное применение инструментов искусственного интеллекта от некорректного, является академическая честность. Упоминается опасение представителей академического сообщества о том, что в условиях роста академической нечестности сервисы искусственного интеллекта могут вести к снижению качества образования в целом и к потере мотивации к обучению у тех студентов, которые работают честно и самостоятельно.
Об актуальности внедрения технологий искусственного интеллекта в сферу образования и возникающих в результате этических проблемах говорится в докладе НИУ ВШЭ «Начало конца или новой эпохи?» [15]. Отмечается, что при использовании ИИ возможно искажение информации, некорректное цитирование, предвзятость на уровне выбора языков, идей, предположений, отбора источников. Чат-боты нередко являются причиной так называемых «галлюцинаций» – они могут выдумывать авторов и названия несуществующих работ, соединять логически несвязанную информацию и пр. Есть два пути профилактики подобных нарушений: обучение студентов этике использования искусственного интеллекта и разработка технологий, отслеживающих сгенерированный контент в студенческих работах.
И. В. Овчинников поднимает вопросы охраны авторского и интеллектуального права в контексте использования технологий искусственного интеллекта [16], отмечая, что не только люди, но и интеллектуальные системы оказались способны к творчеству, хотя оно принципиально отличается от творчества человека. Полученный результат может оказаться непредсказуемым, не соответствующим ни инструкциям пользователей, ни алгоритмам машинного обучения. В правовом отношении трудно определить, кто является автором созданного творческого контента.
А. Пахорукова [17] отмечает, что в российских вузах все чаще возникают вопросы этичного и грамотного использования нейросетей. Преподаватели ценят возможность искусственного интеллекта в оптимизации образовательной деятельности и уменьшении рутинной работы, например, составлении учебных программ и планов, но отрицательно относятся к таким формам применения ИИ, которые провоцируют плагиат, приводят к снижению учебной самостоятельности. Автором статьи используется термин «нейросетевой плагиат», под которым имеется ввиду искусственная генерация текстового контента. Студенты должны научиться пониманию границ применимости ИИ. Исследователь предлагает разработать специальную оценочную шкалу, на одном конце которой будут расположены абсолютно недопустимые действия, а на другом — варианты приемлемого использования.
И. А. Филиппова рассматривает проблемы этики искусственного интеллекта более широко, говоря о том, что честность и добросовестность необходимы на этапе глубокого обучения нейросетей с тем, чтобы они не воспроизводили «общественные предрассудки и предпочтения разработчиков, дискриминируя отдельные социальные группы» [18, с. 76]. Опасения вызывает также тот факт, что современные сверхглубокие мультимодальные нейросетевые модели стремятся к созданию сильного искусственного интеллекта, наращивают параметры, число которых превышает аналогичное количество параметров человеческого мозга, распознают чувства, например, инфракрасное зрение, которые недоступны человеку, осваивают огромные объемы информации, намного превосходящие возможности естественного интеллекта, поэтому использование высоких технологий без соответствующих моральных кодексов и нормативно-правового регулирования представляет собой риск для цивилизации.
В исследовании Л. В. Константиновой, В. В. Ворожихина и соавторов [19] отмечается, что в связи с интенсивным внедрением искусственного интеллекта, в вузовском обучении появляются новые способы академического мошенничества, в частности, несанкционированное обращение к инструментам ИИ при сдаче экзаменов в онлайн-формате, компиляция и генерации текстов высокой уникальности и пр. Наблюдаются цифровое неравенство и риск зависимости от технологий. В совокупности, эти негативные явления могут привести к дискредитации письменных проверочных работ в вузе. Выход из ситуации авторы видят в формулировании этических и правовых норм, регулирующих использование технологий искусственного интеллекта.
По мнению З. С. Курбановой и Н. П. Исмаиловой [20], технологии нейронных сетей, помимо их явных преимуществ в выполнении учебных и исследовательских задач и разработке персонализированных маршрутов обучения, могут стать препятствием к самостоятельному выполнению письменных заданий и инструментом для имитаций в руках студентов. Полный запрет использования нейросетей, безусловно, нецелесообразен, однако требуется строгий контроль педагогов за их применением.
А. И. Минаков полагает, что неэтичное использование искусственного интеллекта может привести к проблемам, связанным с информационной и кадровой безопасностью, снижению компетентности и даже профессиональной деградации специалистов [21]. Неправомерное применение цифровых технологий в отсутствии регулятивных функций приводит к снижению качества образования и негативно сказывается на содержании образовательных программ.
Е. А. Поспелова и соавторы [22] выделяют две ключевые проблемы в сфере цифровой академической этики: намеренное заимствование идей в результате выдачи сгенерированного контента под ложным авторством и создание материалов с ошибками, характерными для нейросетей. Исследователи отмечают, что с интеграцией искусственного интеллекта в сферу образования возникают новые формы плагиата. Чтобы бороться с академическим мошенничеством, необходимо формирование культуры применения генеративного искусственного интеллекта, преодоление клипового мышления у обучающихся, проверка достоверности информации, создаваемой нейросетями, защита конфиденциальности данных.
Л. А. Шаяхметова и В. Д. Кучумов [23] освещают вопросы этики применения нейросетей в вузе. Опираясь на принципы аристотелевской этики, авторы утверждают, что все поступки, включая использование нейросетей, должны вести к добру и порождать благо. Применение искусственного интеллекта способствует автоматизации и совершенствованию образовательного процесса, однако намеренное замалчивание о том, что автором работы является нейросеть, приводит к обесцениванию всей работы. Соблюдение правил этики требует, чтобы в любой студенческой работе делались ссылки на применение нейросетей и долю их участия с целью достижения гармоничного сочетания усилий человека и деятельности искусственного интеллекта.
Е. А. Клопкова и А. В. Микляева [24] предпочитают использование терминов «академический обман» и «академическая нечестность», описывая такие формы академического мошенничества на экзаменах, как использование чужих онлайн-работ в качестве шаблона, имитация технических нарушений, «несанкционированное» обращение к Интернету, указание ложных библиографических источников и т.д.
Этика применения инструментов искусственного интеллекта важна не только для студентов, но и для педагогов. Согласно Р. С. Рабадановой и Э. С. Семинской, непродуманное использование технологий ИИ в большом объеме «может сделать людей зависимыми от нейросетей, лишив их способности наращивать собственные знания, креативность и самодостаточность» [25]. Для решения этой проблемы следует обучать педагогические кадры грамотно использовать искусственный интеллект в учебном процессе.
Тема этики искусственного интеллекта привлекает многих зарубежных исследователей, в особенности из стран, которые лидируют в области применения цифровых технологий, в частности, США, Китая, Великобритании, Канады, Индии и других государств. Так, Лань Хуан (КНР) [26] описывает угрозы информационной безопасности и сохранения личных данных обучающихся при использовании искусственного интеллекта, что может привести к утечке информации, нарушению конфиденциальности, сетевому мошенничеству, фишингу и др. Исследователь подчеркивает необходимость всестороннего изучения этических рисков ИИ для обеспечения безопасного использования цифровых технологий в образовательной среде.
Британские ученые А. Гусети, Ф. Джеймс, Л. Фаллин и К. Берден [27] рассматривают этические проблемы, возникающие в процессе использования искусственного интеллекта в классах К-12. Исследователи представили обзор исследований этической проблематики, обусловленной некорректным использованием возможностей ИИ в образовании, начиная с 2010 до 2023 г. Речь идет о применении адаптивных образовательных платформ, обеспечивающих индивидуализацию обучения и разработку индивидуальных образовательных траекторий с учетом запросов и достижений обучающихся; применении ChatGPT и других чат-ботов, в основу которых положены большие языковые модели. Авторы констатируют сложность выявления этических нарушений и трудность найти пути разрешения этических проблем в школьном сообществе (списывание, присвоение чужого авторства и пр.). Несмотря на то, что в образовательных организациях создаются этические кодексы, декларируются нормы академической этики, внедряются соответствующие ограничения и запреты, искоренить имитационные практики и академическое мошенничество не удается. Ключевыми принципами этичного поведения провозглашаются справедливость, ясность, прозрачность технологий, ответственность, конфиденциальность, не причинение вреда, свобода и автономия. К этому перечню не так давно прибавились такие категории, как «педагогическая целесообразность», «цифровая грамотность», «уважение к педагогам» и «соблюдение прав ребенка». Однако оказывается, что многие школьники имеют слабое представление как о соблюдении этических норм, так и о самой этике как системе нравственных правил.
Индийские ученые М. Курни, М. С. Мохаммед и К. Г. Шриниваса [28] рассматривают моральные и этические последствия использования искусственного интеллекта с психологической точки зрения. Оказывается, что индивидуализация образования средствами ИИ нередко приводит к ограничению коммуникации и отсутствию эмоциональной связи между студентами, поэтому учащиеся могут ощущать себя в изоляции. Средством преодоления подобных явлений может стать чередование применения ИИ и других цифровых технологий.
Исследователи из Канады К. Адамс, П. Пенте и др. [29] полагают, что помочь в решении этических проблем в системе общего образования должна грамотная этическая политика образовательных учреждений, разработка этических кодексов, адаптированных для понимания в детском возрасте, а также глубокое знакомство педагогов с принципами действия искусственного интеллекта и других когнитивных экосистем.
Испанские ученые З. Слими и Б. Вильяредхо Карбаллидо [30] рассматривают этические угрозы и риски, обусловленные использование искусственного интеллекта, в широком цивилизационном плане, в том числе возможность вытеснения искусственным интеллектом отдельных профессий и полную замену человека в некоторых видах деятельности, а также негативное влияние искусственного интеллекта на принятие решений и предвзятость нейросетей. Ключевыми принципами работы с ИИ должны стать честность и обеспечение безопасности пользователей с тем, чтобы усилить все преимущества технологий ИИ и минимизировать возможные риски.
Д. Биркс и Дж. Клэр [31], рассматривая случаи неэтичного использования искусственного интеллекта в образовании, применяют концепт «академические проступки». Отмечается, что «академический проступок» не является новым понятием, однако в эпоху искусственного интеллекта оно приобретает новые смыслы. Высказано опасение о том, что некорректное использование ИИ препятствует развитию критического мышления студентов, их самостоятельности в принятии решений, провоцирует ложное авторство учебных работ и другие негативные явления.
Исследователь из Индии П. Мишра [32] к факторам, которые создают условия для возникновения этических проблем при использовании искусственного интеллекта, относит предвзятость ИИ-систем, нарушение конфиденциальности и отсутствие механизмов подотчетности ИИ. Подотчетность, по мнению автора, является тем условием, которое обеспечивает академическую справедливость при применении технологий искусственного интеллекта и способствует утверждению доверия и равенства в образовательной среде.
На основе анализа российских и зарубежных исследований мы выделили два принципиально разных этических аспекта, или два типа этики ИИ, образующие единую структуру (см. рис. 1): этика системы искусственного интеллекта и этика пользователя, который применяет искусственный интеллект. Этика пользователей ИИ имеет непосредственное отношение к сознательному нарушению академических норм, при этом о втором типе этики, а именно об этических особенностях систем ИИ, в частности, о предвзятости нейросетей, пользователь может не знать, однако в реальных жизненных ситуациях оба типа этических нарушений накладываются друг на друга, что приводит к усугублению негативных последствий.
И, наконец, обратимся к анализу филологических источников по рассматриваемой тематике. Поскольку цель нашего исследования состоит в том, чтобы выделить и систематизировать ключевые понятия академической этики в условиях использования ИИ, имеет смысл обратиться не только к педагогической, но и к языковедческой научной литературе. В кандидатском исследовании А. С. Мусаевой [33] рассматриваются особенности терминообразования в области искусственного интеллекта. Исследователь отмечает, что терминологическое поле искусственного интеллекта на момент подсчета в 2022 году состояло из 452 терминов. Одним из наиболее частых способов терминообразования выступает так называемое «привлечение», когда термины из литературного языка заимствуются в профессиональное поле, при этом у литературного слова отсекается его оригинальное лексическое значение, происходит специализация смысла и формируется сугубо научное значение термина в виде дефиниции. В терминосфере искусственного интеллекта можно выделить три типа лексических единиц – привлеченные из литературного языка, транстерминологизированные (то есть созданные на основе других терминов), а также неологизмы.
Рис. 1. Характерные особенности этики применения искусственного интеллекта в образовании
Определенную специфику имеет перевод иноязычных терминов сферы искусственного интеллекта. Как свидетельствует Д. Ю. Бражникова [34], термины из области искусственного интеллекта являются узкоспециализированными, терминологическая система языка динамично развивается и непрерывно пополняется новыми терминами, которые образуются путем заимствования, калькирования или дословного перевода. Терминологический состав смыслового поля цифровой академической этики, связанной с применением искусственного интеллекта, также неуклонно расширяется.
В контексте настоящего исследования нас, в первую очередь, интересует концептуализация понятий из области искусственного интеллекта как составная часть педагогической терминологии. Педагогика, согласно формулировке паспорта научной специальности 5.8.1 «Общая педагогика, история педагогики и образования», представляет собой целостную систему научного знания, в пространстве которой исследования изменений терминологического аппарата педагогической науки востребованы и актуальны.
Методологическая база исследования / Methodological base of the research
В процессе исследования автор опирался на метод критического анализа текстов научной литературы, элементы семантического и терминологического анализа, методы систематизации и классификации, индукции и дедукции.
Междисциплинарный подход позволил рассматривать понятийное поле искусственного интеллекта и связанных с его применением этических проблем на стыке нескольких гуманитарных дисциплин – педагогики, лингвистики, философии образования и педагогической аксиологии.
В рамках настоящего исследования нашел применение лингвопедагогический подход, принципы которого раскрываются Е. В. Игнатович [35], которая обосновывает интеграцию методов исследования понятийно-терминологической системы педагогики и научных подходов к изучению педагогического языка в рамках образовательного дискурса. Теоретико-методологические основы лингвопедагогического подхода заложены И. А. Колесниковой [36], рассматривающей особенности возникновения и функционирования педагогических концептов на примере концептосферы непрерывного образования. Лингвопедагогический подход тесно связан с концепцией методической лингвоконцептологии, разрабатываемой Л.Н. Мишатиной в рамках антропокультурологической парадигмы [37].
Для выявления ключевых понятий академической этики нами применялся метод изучения аннотаций и ключевых слов в научных публикациях. Данный подход, в частности, используется авторами из Финляндии В. Ваккури и П. Абрахамссон при исследовании концептов этики искусственного интеллекта [38]. В контексте настоящего исследования мы обратились к изучению отечественных источников по педагогическим наукам (2022-2025 гг.) с тем, чтобы выделить ключевые русскоязычные концепты академической цифровой этики, функционирующие в концептосфере педагогической науки. Исследовались публикации, входящие в электронную научную библиотеку eLibrary.ru и национальную библиографическую базу данных научного цитирования РИНЦ. Отбор источников производился в поисковых системах Google и Yandex.
Проведенный автором анализ методологических подходов к исследованию изменения и пополнения концептосферы академической этики в условиях цифровой трансформации образования позволяет констатировать тот факт, что большинство отечественных и зарубежных исследователей – как педагогов, так и лингвистов – отмечают явное влияние цифровизации на становление и развитие понятийно-терминологической системы современной педагогической науки, используя при этом интеграцию методов педагогических и языковедческих дисциплин.
Результаты исследования / Research results
На основе анализа ключевых слов и аннотаций к текстам русскоязычных научно-педагогических исследований за последние три с половиной года (2022–2025) были выделены наиболее часто употребляющиеся концепты академической этики, связанные со смысловым полем «искусственный интеллект». Результаты систематизации и значения данных концептов отражены в представленной ниже таблице.
Ключевые концепты академической этики, связанные
с использованием цифровых технологий и систем искусственного интеллекта
|
Русскоязычные термины |
Синонимы |
Англоязычные лексические соответствия |
Значение терминов и терминологических словосочетаний |
|
Академическая нечестность |
Академическая недобросовестность, академическая непорядочность, академические проступки, академические нарушения |
Academic dishonesty, academic misconduct |
Рассматривается как имитационное псевдо-адаптивное поведение обучающихся, направленное на имитацию результатов учебной деятельности посредством обмана и различных уловок. Синоним «академического мошенничества», но с несколько менее выраженным элементом явного обмана. |
|
Академическое мошенничество |
Академический обман, электронное академическое мошенничество |
Academic fraud, academic fraudulence, electronic academic fraud |
Различные виды обмана при выполнении учебных либо исследовательских работ с использованием ИИ (плагиат, копипаст, списывание, некорректные заимствования, фальсификация и искажение данных, ложное авторство, саботаж, вмешательство в компьютерные и тестовые программы, обращение к несанкционированным материалам на экзамене и т.д.) |
|
Академическая целостность |
Академическая честность, академическая стабильность |
Academic integrity, academic honesty, intellectual integrity
|
Совокупность принципов академической этики, исключающих и предотвращающих академические проступки. Строится на следующих ценностях: честность, доверие, уважение, прозрачность, ответственность. Означает осознание индивидом ценности, автономности и самостоятельных усилий в приобретении образования. |
|
Академический гострайтинг |
Ложное авторство, теневое авторство |
Ghostwriting, ghost authorship, shadow writing |
Форма нарушения норм академического этоса, выражающаяся в написании на заказ академических текстов (курсовые и дипломные работы, исследовательские работы, статьи, диссертации) как имитация образовательной, исследовательской или публикационной активности, теневое академическое письмо. Может также включать ложное соавторство. |
|
Галлюцинация ИИ |
Искусственная галлюцинация |
AI hallucinations |
Реакция ИИ, проявляющаяся в вымышленных ответах и генерации недостоверной информации, которые не подтверждается данными предварительного обучения. Связаны с внедрением больших языковых моделей (LLM). Галлюцинации у ChatGPT составляют около 3%. |
|
ИИ-плагиат |
ГИИ-плагиат (ГИИ – генеративный искусственный интеллект), нейросетевой плагиат |
AI plagiarism, GAI plagiarism
|
Присвоение чужих текстов, идей, утверждений, искусственная генерация текстов посредством ИИ без оформления ссылок и без упоминания о применении ИИ. |
|
Имитации в образовании |
Имитационные практики, фальсификация, фабрикация, симулирование |
Imitation in education, imitation practices, falsifications |
Имитационные или псевдоучебные стратегии и приемы, создающие видимость учебной деятельности, в том числе симулирование, списывание, применение шпаргалок, фальсификация и фабрикация данных, имитация публикационной активности, искусственное повышение оригинальности текстов; купля-продажа готовых образовательных продуктов; искусственное повышение индекса цитируемости автора, цитирование по договоренности; оформление ложных ссылок на публикации; копирование библиографических источников из чужих публикаций и т.п. |
|
Копи-паст |
Копи-пейст |
Copy-paste |
Термин заимствован из программирования (программирование посредством копирования – вставки). Копирование фрагментов чужих текстов и их компиляция; неправомерные заимствования; генерация научных текстов при помощи нейросетей; создание «псевдонаучных текстов», «фейковых» текстов; цитирование без ссылок на автора; создание «суррогатных» научных публикаций и т.д. |
|
Конфиденциальность данных |
Приватность данных |
Data privacy, data confidentiality, data security |
Сбор больших объёмов персональных данных средствами цифровых технологий создает риски утечки личной информации. Необходимы защита данных, прозрачность и согласие обучающихся на обработку личных данных. |
|
Надежность ИИ |
Валидность ИИ |
Reliability of AI, trustworthiness of AI |
Устойчивость моделей ИИ к непредвиденным ситуациям. Системы ИИ несовершенны и могут давать технические сбои, приводящие к неточности и искажению информации. Необходима регулярная проверка результатов работы ИИ и обеспечение прозрачности алгоритмов. |
|
Предвзятость ИИ |
Алгоритмическая предвзятость |
AI Bias, algorithm bias |
Систематически повторяющиеся ошибки системы ИИ, когда нейросеть отдает предпочтение одним объектам поиска и игнорирует другие, то есть находит неверные паттерны и выдает несправедливые результаты. ИИ не является нейтральным. Предвзятость может привести к дискриминации и неравенству по политическим, расовым, этническим, гендерным, религиозным признакам, что ведет к маргинализации социальных групп. Выделяют 3 типа предвзятости: алгоритмическая предвзятость, негативное наследие и недооценка. |
|
Рерайтинг |
Перефразирование, парафраз |
Rewriting, paraphrasing |
Вид плагиата, основанный на анонимном копировании и переписывании чужих текстов без указания реального автора, в том числе посредством перефразирования фрагментов текста, использования синонимов, изменения структуры предложений и, в конечном итоге, присвоение чужих идей. |
|
Фишинг |
Голосовой фишинг, смс-фишинг и др. |
Phishing или fishing |
Разновидность электронного мошенничества, основанного на техниках социальной инженерии и направленного на получение доступа к личным данным (логины, пароли) в обход фильтров с целью распространения рассылок и фишинговых писем. |
|
Цифровая деменция |
Цифровое слабоумие |
Digital dementia |
Чрезмерная зависимость обучающихся от технологий, гаджетов, излишняя опора на помощь ИИ в решении любых вопросов. Ведет к снижению самостоятельности и активности мыслительных функций учащихся. Необходимо разумное применение и контроль ИИ-технологий в образовательном процессе, а также внедрение альтернативных методов обучения. |
|
Цифровое неравенство |
Информационное неравенство, цифровой барьер, цифровое разделение |
Digital Divide |
Неравенство и неравномерность доступа обучающихся к цифровым ресурсам, гаджетам, к информации сети Интернет. Наличие цифрового барьера обусловлено социальными причинами и вызывает этические проблемы (социальная дифференциация и низкая конкуренция обучающихся из семей с низким доходом и т.д.) |
|
Этические проблемы ИИ |
Этические риски, этические ситуации ИИ |
Ethical implications of AI, ethical concerns, ethical dilemmas
|
Широкий спектр проблем, вызванных как особенностями и несовершенством моделей ИИ (неточность информации, предвзятость и пр.), так и ценностными установками пользователей и разработчиков (неэтичные установки, неэтичное поведение). |
Исследование концептосферы цифровой академической этики на основе анализа ключевых слов и аннотаций к научным публикациям в области педагогики и наук об образовании позволило нам выделить 16 наиболее распространенных концептов, отражающих различные аспекты этики искусственного интеллекта в образовательной среде.
Оказалось, что новая терминология смыслового поля искусственного интеллекта проникает в понятийно-терминологический аппарат педагогики во многом посредством заимствований (как правило, из английского языка), в результате переноса значений из литературного языка в процессе «привлечения», а также посредством транстерминологизации, или переноса значений существующих терминов в педагогику из других областей знания. Так, привлеченными лексемами являются термины и терминологические словосочетания «академическое мошенничество», «академическая честность», «предвзятость» систем искусственного интеллекта и т.п. К неологизмам можно отнести заимствования англоязычных терминов, таких как «гострайтинг» (ghostwriting), «копи-паст» (copy-paste), «рерайтинг» (rewriting) и т.д. Терминологизированными являются концепты, которые попали в пространство педагогического дискурса из других областей знания, в частности, из информатики, IT-сферы и других отраслей, и широко используются наряду с педагогическими терминами. К таким межотраслевым терминам относятся, например, словосочетания «искусственный интеллект», «конфиденциальность данных», «надежность ИИ-системы» и др.
Безусловно, в связи с развитие технологического прогресса терминологический состав педагогического тезауруса будет и дальше неуклонно пополняться. Известно, что формирование новых терминов в языке происходит достаточно длительно, некоторые новые явления и реалии социальной жизни пока не получили соответствующего им термина, однако это лишь вопрос времени, который во многом зависит от того, будет ли существовать само явление, которое порождает необходимость терминообразования. В сфере реализации новых цифровых технологий существует масса явлений, которые пока выражаются описательно. Например, в настоящий период в студенческой среде встречается такая негативная практика, как искусственное повышение оригинальности написанного текста посредством специальных компьютерных программ. Термина, который бы отражал это явление, пока не зарегистрировано. Появится ли соответствующий термин? Сейчас, как правило, следы подозрительного вмешательства в тексты в большинстве случаев фиксируются программами отслеживания плагиата. Однако и «несанкционированные» цифровые программы, повышающие оригинальность текстов, также обновляются. Поэтому, если дальнейшее развитие программ антиплагиата позволит эффективно выявлять следы имитационных программ, исчезнет само явление и соответствующий ему термин не будет создан. В противном случае данная практика академического мошенничества примет более широкий масштаб и, вероятно, получит лексическое соответствие на уровне терминологии.
Заключение / Conclusion
Исследование обновления тезауруса педагогической науки и содержательной трансформации традиционных понятий всегда актуально в связи с появлением новых реалий в языке и внедрением инновационных образовательных технологий. Цифровая трансформация образования привела к тотальной цифровизации и массовому распространению технологий искусственного интеллекта в сфере образования. Недостаточное совершенство внедряемых технологических моделей (нейросети, чат-боты с генеративным искусственным интеллектом и т.д.), несформированность цифровой культуры в обществе и нарушение морально-этических норм пользователями интеллектуальных систем приводит к появлению негативных явлений морального плана в академической среде, проявляющихся в реализации имитационных практик в образовательной деятельности, росте академического мошенничества, гострайтинга, плагиата, нарушения авторских прав и др.
Новые явления в жизни сопровождаются формированием новых научных терминов, частично заимствованных, а частично возникших в пространстве оригинального русскоязычного академического дискурса. Представители педагогического сообщества должны своевременно знакомиться с новой терминологией педагогической науки, к которой относится и концептосфера этики искусственного интеллекта. Данная тематика только начинает исследоваться как в российской, так и в зарубежной педагогике. В данной связи предпринятое нами исследование может оказаться полезным школьным учителям, преподавателям вузов, педагогам-исследователям, студентам педагогических направлений подготовки, лингвистам и представителям сферы IT-технологий в контексте пополнения личного научного тезауруса, ознакомления с новыми тенденциями информатизация образования и осмыслением путей решения современных этических проблем.

Ekaterina V. Sizova