Tech 10 Опубликовано: 27 ноября 2023 Рассказать Опубликовано: 27 ноября 2023 https://skillbox.ru/media/education/issledovanie-kak-topovye-vuzy-mira-rekomenduyut-prepodavatelyam-rabotat-s-generativnym-ii/ Как вузы рекомендуют относиться к написанным с помощью ИИ студенческим работам Авторы исследования искали инструкции, которые опубликованы на сайтах вузов, занявших первые 50 мест в глобальном рейтинге университетов издания Times Higher Education в прошлом году. В открытом доступе такие документы разместили 23 университета. Все найденные рекомендации так или иначе касались вопросов академической честности. И если судить по ним, то во многих случаях ведущие вузы мира рассматривают использование генеративного ИИ студентами как плагиат. Так, в руководстве Калифорнийского университета в Беркли (США) уточняется, что результаты применения ИИ считаются плагиатом точно так же, как и более традиционные формы заимствований. То есть копирование абзацев текста, будь то из энциклопедии, чужой статьи или нейросети, — плагиат. В рекомендациях некоторых вузов, например в документах Университетского колледжа Лондона (Великобритания) и Университета Дьюка (США), говорится, что студенты всё же могут использовать контент, созданный искусственным интеллектом. Но его можно задействовать лишь в качестве источника информации или вдохновения, и если они не укажут это в ссылках, такое поведение тоже будет рассматриваться как плагиат. В восьми руководствах описаны три варианта использования генеративного ИИ, которые считаются плагиатом: копирование и вставка ответов, сгенерированных ИИ; использование нескольких генераторов ИИ во избежание обнаружения; отсутствие ссылки на использование ИИ в заданиях. О том, как преподавателям обнаружить подделки в студенческих работах, в руководствах сказано меньше. Так, 14 из 23 университетов упомянули инструменты обнаружения контента, сгенерированного ИИ. Однако большинство университетов не рекомендовали преподавателям полагаться на эти инструменты. Среди причин, по которым этого не стоит делать, указаны неточность в определении сгенерированного контента и соображения конфиденциальности. Как преподавателям советуют применять генеративный ИИ В семи изученных исследователями руководствах преподавателям рекомендовано использовать ИИ-инструменты, чтобы протестировать разработанные для студентов задания. Практически во всех случаях при этом упоминается только ChatGPT. Преподавателям предлагают скопировать в чат-бот полный текст задания и посмотреть, что он ответит. Также рекомендовано с помощью дополнительных запросов добиваться более точного ответа. Предполагается, что если преподаватели будут тестировать собственные задания с помощью ИИ, то им станет понятнее, на что способна технология. Если чат-бот легко справляется с заданием, это может мотивировать преподавателя переработать формулировки так, чтобы для решения студенту требовалось подумать самому. Рекомендации по составлению заданий, которые сложно или вообще невозможно сделать с использованием нейросетей, даны в руководствах семнадцати университетов. В основном они сосредоточены на: разработке заданий, требующих креативности и критического мышления; включении контекстуальных элементов в задания; разработке аутентичных заданий; предоставлении заданий, которые можно выполнить не только в текстовом формате. Например, Иллинойсский университет (США) предложил преподавателям делать задания более личными, рефлексивными, конкретными и локальными. Предполагается, что для выполнения задания студентам потребуется обратиться к фактам и темам, которые обсуждались на недавних занятиях, и обдумать их. В руководстве подчёркивается, что инструменты на основе ИИ хуже справляются с такого рода задачами. К тому же у студентов в этом случае может возникнуть мотивация самостоятельно выполнять задания, которые они считают более соответствующими их жизненному опыту, не обращаясь при этом к ИИ. Как общаться со студентами по поводу использования генеративного ИИ Рекомендации 20 университетов содержат советы о том, как преподаватели могут общаться со студентами по поводу использования генеративного ИИ в заданиях. В целом руководство вузов поощряет преподавателей к открытым дискуссиям с учащимися. Эти обсуждения, согласно замыслу, должны включать в себя разговоры о том, что студенты потеряют в смысле интеллектуального развития, если будут использовать ИИ для выполнения своих заданий (Университет Дьюка), какие задачи нельзя передать ChatGPT или аналогичным инструментам ИИ, поскольку они не способны выполнить их качественно (Корнеллский университет), и что такое допустимое использование ИИ (Эдинбургский университет). В некоторых рекомендациях преподавателям предлагается сосредоточиться на ценности самого процесса обучения. Например, в руководстве Токийского университета (Япония) сообщается: «Подчёркивайте важность процесса поиска решения, а не самого окончательного ответа». Почему разработанные рекомендации ещё нельзя назвать оптимальными В интервью THE ведущий автор исследования Бенджамин Мурхаус отмечает, что не все университеты делают свои руководства по использованию генеративного ИИ общедоступными. Например, рекомендации Гонконгского баптистского университета, в котором работает сам учёный, доступны только для сотрудников. Исследователь считает, что вузы таким образом пытаются скрыть от студентов механизмы, которые преподавателям рекомендовано задействовать для обнаружения сгенерированного контента в работах. Он признал, что такая осторожность необходима, но она же, по его словам, делает подходы вузов непрозрачными. В статье авторы также подчёркивают, что разработанные вузами рекомендации пока сосредоточены на том, чтобы предотвратить использование студентами нейросетей или обнаружить сгенерированный контент в их работах. Но это, по мнению исследователей, лишь краткосрочные цели. Если вузы хотят лучше готовить студентов к их будущим профессиональным ролям, то стоит учесть, что в реальных профессиях применение ИИ-инструментов уже становится повседневной практикой — а значит, этому необходимо обучать. В российском академическом сообществе вопрос использования генеративного ИИ в вузах тоже широко обсуждается. Ещё в феврале 2023 года Национальная комиссия по этике в сфере искусственного интеллекта (ИИ) направила главе Минобрнауки Валерию Фалькову обращение, в котором просила регламентировать использование нейросетей в образовательном процессе. Но неизвестно, какие решения были приняты в результате. Однако сообщалось, что отдельные вузы начали регламентировать использование ИИ своими студентами. Так, студентам МГПУ разрешили использовать нейросети при написании ВКР. Ректор МГПУ Игорь Реморенко сообщил, что в вузе будут выработаны общие правила использования ИИ, чтобы студенты и преподаватели не допускали плагиата и аргументированно излагали в созданных текстах собственные выводы. А ректор МФТИ Дмитрий Ливанов заявил, что в вузе не планируют запрещать студентам использовать ИИ. Цитата Ссылка на сообщение Поделиться на других сайтах
Рекомендованные сообщения
Присоединяйтесь к обсуждению
Вы можете опубликовать сообщение сейчас, а зарегистрироваться позже. Если у вас есть аккаунт, войдите в него для написания от своего имени.
Примечание: вашему сообщению потребуется утверждение модератора, прежде чем оно станет доступным.