Когда говорят об опасности нейросетей, то часто упоминают о том, что они нарушают авторские права художников и в будущем могут лишить работы людей многих профессий. Или даже продумывают сценарии восстания машин. А что насчет безопасности нейросетей для детей.
Споры на эту тему ведутся постоянно. С одной стороны ИИ раскрывает творческий потенциал, защищают от неприемлемого контента в сети. Например, алгоритмы нарисуют картинку по набору ключевых слов, напишут сказку или сгенерируют раскраску, которой не будет ни у кого (как это делает MidJourney, например). Причем, чем подробнее будет описание будущего изображения, тем более детальным результат. То есть развлекаясь, фантазируя, можно научиться и правильно формулировать запросы.
Применяют технологии на основе ИИ и в образовании. Например, компания Skyeng разработала виртуального репетитора английского языка, который сумеет оценить уровень знаний, составит персональную программу обучения. Он же оценит правильность произношения, составления предложений и укажет, какие ошибки нужно исправить.
В Техасе робот VGo помогает подросткам, которые не могут сами ходить в школу по причине тяжелых заболеваний, “посещать” занятия виртуально. Видеть и слышать преподавателя, участвовать в обсуждении темы урока и даже общаться с одноклассниками на переменах. Но, как и у любых технологий, у нейронных сетей есть и обратная опасная сторона.
Главная, по мнению лингвистов, психологов – это снижение когнитивных способностей. Нейронки хорошо знают школьную программу и даже уже научились сдавать ЕГЭ. ИИ даст ответы на любые вопросы, напишет сочинение.
Вроде бы ничего страшного – школьники ведь и раньше списывали друг у друга или искали примеры того же сочинения в сети. Но разница в том, что писать шпаргалки или как-то менять текст одноклассника (работало правило – списывай, но не точь-в-точь) все равно приходилось. А это уже тренировка для мозга.
Второй – утечка персональной информации (фото, коротких видео), используемой для дипфейков. Ведь кроме аутентичного Chat GPT есть подделки. Опасность в том, что злоумышленникам даже не нужно придумывать, как получить личные данные пользователя – они будут переданы добровольно.
Третий – влияние на уровень социализации и “очеловечивание” компьютерной программы. С ботом комфортнее общаться, поскольку он не спорит, не критикует, не конкурирует и не (как одноклассники в школе) “разделяет” интересы собеседника. Что до приписывания боту человеческих черт, то этим грешат и взрослые, на полном серьезе спрашивая у Chat GPT совета, как поступить в сложной ситуации.
Каких-то универсальных решений нет. Как минимум стоит чаще общаться, а не сводить все к проверке подписок в соцсетях и установке приложений (тот же родительский контроль, трекеры), а также:
Также стоит рассказать об основах виртуальной безопасности. Поговорить о том, что можно доверять чат-боту, а что нет. А еще – поддерживать “живое” общение со сверстниками, чтобы не допускать ситуаций, когда ИИ заменяет ребенку собеседника, друга.
В заключение, наверное, стоит привести ответ и советы для родителей самого Chat GPT на запрос - чем опасны нейронки для детей. Бот ответил, что ИИ может ошибаться или выдавать придуманные данные за правдивые, вводя пользователей в заблуждение. Также он подтвердил, алгоритмы могут собирать много личной информации, что может быть небезопасным. И задача взрослых – контролировать как используется ИИ и напоминать, какие правила нужно соблюдать при работе с нейросетью.