Эксперт предупредил студентов о рисках использования ИИ

Эксперт предупредил студентов о рисках использования ИИ
фото показано с : niasam.ru

2025-4-6 09:38

Исследования показывают, что 82% молодых людей от 18 до 24 лет осведомлены о нейросетях с текстовыми функциями, причем многие активно применяют их для выполнения учебных заданий и написания академических работ. О рисках использования ИИ в образовательном процессе в пятницу, 5 апреля, рассказала руководитель ИТ-подразделения агентства «Полилог», автор Telegram-канала «ГОС ИТ Богатырева» Людмила Богатырева в беседе с «Газета.Ru». Как указала эксперт, вузы всё чаще выражают обеспокоенность тем, что ИИ превращается в стандартный инструмент обучения. Многие университеты уже внедряют системы обнаружения ИИ-текстов и устанавливают правила их использования. Однако, по словам Богатыревой, эти меры часто оказываются неэффективными — студенты находят способы их обойти. Популярный метод — использование специальных сервисов («хьюменайзеров»), которые перефразируют ИИ-текст так, что детекторы не могут отличить его от человеческого. Специалист отметила, что запрещать ИИ бессмысленно. «Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей», — объяснила она. Богатырева утверждает, что ключевое ограничение ИИ — это так называемые галлюцинации, когда система генерирует ложную или вымышленную информацию. Это происходит из-за недостаточности обучающих данных, неправильной интерпретации запросов и других факторов, уточнила эксперт. Она рассказала, что даже самая совершенная на сегодня модель ChatGPT-4.5 демонстрирует «галлюцинации» в 37% случаев, что является лучшим показателем среди всех версий. Несмотря на это, согласно опросу НИУ ВШЭ, около 31% студентов доверяют ИИ поиск источников для своих работ, пишут "Известия". Феномен «галлюцинаций» ИИ представляет серьезную угрозу для академической среды, добавила Богатырева. «Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше», — заключила эксперт. источник »