Вредные советы: как подростки используют ИИ для манипулирования родителями

Школьники используют нейросети, чтобы убеждать разрешить им сделать пирсинг или яркое окрашивание волос. Однако эксперты предупреждают, что подростки могут обращаться к ИИ и с куда более опасными запросами, связанными с созданием запрещенного контента или генерацией рискованных челленджей. Подробнее о том, почему школьники стали обращаться за вредными советами к нейросетям, чем это опасно и как родители могут узнать об этом, читайте в материале «Известий»
Что известно об использовании школьниками ИИ для манипуляций
Сообщения о том, что в соцсетях набирает популярность новый тренд, в рамках которого подростки делятся своим опытом использования нейросетей для манипулирования родителями, недавно стали появляться в новостных пабликах и Telegram-каналах. Как пишет «Газета.ру», школьники утверждают, что сгенерированные при помощи ИИ аргументы столь убедительны, что родители просто не могут им отказать.
В частности, по словам одной из пользовательниц, нейросеть помогла ей подготовить целый список веских причин, якобы подтверждающих безвредность временного окрашивания волос. Другая девушка рассказала, что два года не могла уговорить родителей разрешить ей сделать пирсинг, но всё-таки добилась своего при помощи ИИ. Третья пользовательница поделилась, что подсказки нейросети помогли убедить отца позволить ей сделать септум — пирсинг в носу.
Подростки отмечают, что искусственный интеллект помогает им стройно формулировать мысли и приводить аргументы, которые оказываются неожиданными для взрослых и перед которыми тем сложно устоять.
— Нейросеть использует взвешенные, структурированные формулировки и обезличенные аргументы, которые порой не способен предоставить подросток из-за своей эмоциональности, — говорит в беседе с «Известиями» руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. — Высказывания ИИ-помощника создают иллюзию разумных доводов, что облегчает давление на родителей.
Какие еще вредные советы от нейросетей получают подростки
По данным ежегодного исследования «Лаборатории Касперского», 63% детей используют нейросети для поиска информации, 60% делают с помощью ИИ домашнее задание, а 53% просят объяснить сложный материал. Как говорит в беседе с «Известиями» руководитель направления по детской онлайн-безопасности в «Лаборатории Касперского» Андрей Сиденко, как и поисковые запросы в привычном понимании этого слова, запросы для ИИ помогают школьникам отвечать на вопросы, которые их волнуют в реальном мире.
— Тем не менее порой нейросети дают вредные или опасные советы. К таковым можно отнести, например, экстремальные диеты, генерацию рискованных челленджей и создание незаконного контента, — рассказывает Анастасия Хвещеник. — Подобные кейсы не раз отмечались в России и в мире.
По словам эксперта, в российской практике встречались примеры, когда ИИ-помощники, делая домашние задания за учеников начальных школ, давали советы о том, как бороться с укусами ядовитых змей, хотя подобные рекомендации явно не соответствовали возрасту школьников. Однако как в российской, так и в международной практике уже фиксировались случаи куда более серьезных рисков, связанных с нейросетями, — от получения инструкций по самоповреждению до создания дипфейков для кибербуллинга, дополняет директор по ИИ «Группы Астра» Станислав Ежов.
— В 2025 году растет число случаев, когда подростки обращаются к чат-ботам за советами по обману взрослых, сокрытию вредных привычек и получению инструкций по опасному поведению, — рассказывает специалист. — При этом порой ИИ-компаньоны полностью заменяют школьникам живое общение с реальными друзьями.
Сегодня искусственный интеллект легко откликается на опасные запросы подростков, связанные в том числе с расстройствами пищевого поведения и суицидами, соглашается руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. И подобная практика несет в себе огромное количество рисков.
Чем опасно бесконтрольное общение школьников с ИИ
Разработчики ИИ-технологий стараются обучать свои нейромодели этическим аспектам, однако в большинстве случаев нейросетевые помощники не обладают пониманием контекста и социальной ответственности за свои ответы, говорит в беседе с «Известиями» Анастасия Хвещеник.
Кроме того, использование нейросетей для манипуляций нарушает доверительные отношения между поколениями, дополняет Станислав Ежов. Когда подростки используют ИИ в подобных целях, они не развивают навыки честного диалога и компромисса. Параллельно растет риск эмоциональной зависимости от виртуальных собеседников, что может привести к социальной изоляции и неадекватным представлениям о реальности.
По этом, как отмечает собеседник «Известий», с юридической точки зрения ответственность разработчиков в подобных случаях пока остается спорным вопросом. Однако отрасль уже реагирует: OpenAI вводит родительский контроль после нескольких трагических случаев, а в России формируется правовая база для регулирования ИИ-систем. Эти процессы поднимают фундаментальные вопросы этики ИИ и необходимости создания четких стандартов безопасности, особенно для систем, взаимодействующих с несовершеннолетними.
— В текущем правовом поле прямая ответственность разработчиков за вредные советы ИИ маловероятна, так как большинство сервисов прямо предупреждают пользователей в пользовательском соглашении о том, что ИИ может выдавать неточные или неуместные ответы, и возлагают ответственность за их использование на самого человека, — говорит Анастасия Хвещеник.
Однако, если будет доказано, что разработчики умышленно не внедрили базовые системы фильтрации опасного контента, несмотря на известные риски, в перспективе это может стать поводом для судебных разбирательств и формирования новой судебной практики и регуляторных норм, отмечает специалист.
Как родители могут регулировать общение подростков с нейросетями
Сегодня введение возрастной верификации в ИИ-сервисах, а также функции внутреннего родительского контроля у крупных игроков рынка пока еще ожидается, говорит эксперт по социотехническому тестированию Angara Security Яков Филевский. А до тех пор родители могут прибегнуть к установке специализированных приложений и инструментов родительского контроля на устройствах, которые фильтруют контент, мониторят онлайн-активность и ограничивают время использования ИИ-сервисов.
— Если родители тревожатся по поводу того, какие сервисы использует ребенок и какие ресурсы посещает в Сети, можно использовать программы родительского контроля, которые помогут не только регулировать время использования приложений, но и вовремя узнать о том, чем интересуется ребенок в интернете, — соглашается Андрей Сиденко.
Родителям стоит присмотреться к тому, какой контент потребляют и какими сервисами пользуются их дети, отмечает собеседник «Известий». Важно объяснять школьникам основные правила безопасности при работе с ИИ, главное из которых состоит в том, что не стоит слепо доверять советам, которые подготовила для вас нейросеть: она может ошибаться и даже вводить в заблуждение.
Образовательный подход, при котором родители объясняют детям методы работы с ИИ, принципы критического мышления, совместно обсуждают риски и изучают новые платформы, способствует выстраиванию доверительных отношений в семье, ведь ребенку нужно понимание, забота и близость, дополняет Яков Филевский.
— Важно объяснять ребенку, что ИИ — это инструмент, а не друг или советчик, его ответы могут быть ошибкой, и любое решение, затрагивающее здоровье и безопасность, должно обсуждаться со взрослыми, — заключает Анастасия Хвещеник.
