Chat GPT

Безопасность нейросетей для детей

Chat AI
#chatgpt #бесплатно
image

Когда говорят об опасности нейросетей, то часто упоминают о том, что они нарушают авторские права художников и в будущем могут лишить работы людей многих профессий. Или даже продумывают сценарии восстания машин. А что насчет безопасности нейросетей для детей.

Безопасны ли нейросети для детей

Споры на эту тему ведутся постоянно. С одной стороны ИИ раскрывает творческий потенциал, защищают от неприемлемого контента в сети. Например, алгоритмы нарисуют картинку по набору ключевых слов, напишут сказку или сгенерируют раскраску, которой не будет ни у кого (как это делает MidJourney, например). Причем, чем подробнее будет описание будущего изображения, тем более детальным результат. То есть развлекаясь, фантазируя, можно научиться и правильно формулировать запросы.

Применяют технологии на основе ИИ и в образовании. Например, компания Skyeng разработала виртуального репетитора английского языка, который сумеет оценить уровень знаний, составит персональную программу обучения. Он же оценит правильность произношения, составления предложений и укажет, какие ошибки нужно исправить.

В Техасе робот VGo помогает подросткам, которые не могут сами ходить в школу по причине тяжелых заболеваний, “посещать” занятия виртуально. Видеть и слышать преподавателя, участвовать в обсуждении темы урока и даже общаться с одноклассниками на переменах. Но, как и у любых технологий, у нейронных сетей есть и обратная опасная сторона.

В чем опасность

Главная, по мнению лингвистов, психологов – это снижение когнитивных способностей. Нейронки хорошо знают школьную программу и даже уже научились сдавать ЕГЭ. ИИ даст ответы на любые вопросы, напишет сочинение.

Вроде бы ничего страшного – школьники ведь и раньше списывали друг у друга или искали примеры того же сочинения в сети. Но разница в том, что писать шпаргалки или как-то менять текст одноклассника (работало правило – списывай, но не точь-в-точь) все равно приходилось. А это уже тренировка для мозга.

Второй – утечка персональной информации (фото, коротких видео), используемой для дипфейков. Ведь кроме аутентичного Chat GPT есть подделки. Опасность в том, что злоумышленникам даже не нужно придумывать, как получить личные данные пользователя – они будут переданы добровольно.

Третий – влияние на уровень социализации и “очеловечивание” компьютерной программы. С ботом комфортнее общаться, поскольку он не спорит, не критикует, не конкурирует и не (как одноклассники в школе) “разделяет” интересы собеседника. Что до приписывания боту человеческих черт, то этим грешат и взрослые, на полном серьезе спрашивая у Chat GPT совета, как поступить в сложной ситуации.

Что делать

Каких-то универсальных решений нет. Как минимум стоит чаще общаться, а не сводить все к проверке подписок в соцсетях и установке приложений (тот же родительский контроль, трекеры), а также:

  • рассказать как, по какому принципу работают чат-боты – что это не какой-то сверхразум, а набор алгоритмов, который при генерации ответа на запрос просто “просеивает” большие массивы данных, созданных человеком;
  • участвовать в учебном процессе – поддерживать, мотивировать, объяснять, что ИИ не единственный источник информации;
  • ограничивать время “общения” школьников с чат-ботами – чтобы сохранять баланс между реальным и виртуальным миром;
  • обучать навыкам аналитического, критического мышления – если проще, не доверять всему, что выдает алгоритм, а перепроверять ответы в других источниках.

Также стоит рассказать об основах виртуальной безопасности. Поговорить о том, что можно доверять чат-боту, а что нет. А еще – поддерживать “живое” общение со сверстниками, чтобы не допускать ситуаций, когда ИИ заменяет ребенку собеседника, друга.

Итоги

В заключение, наверное, стоит привести ответ и советы для родителей самого Chat GPT на запрос - чем опасны нейронки для детей. Бот ответил, что ИИ может ошибаться или выдавать придуманные данные за правдивые, вводя пользователей в заблуждение. Также он подтвердил, алгоритмы могут собирать много личной информации, что может быть небезопасным. И задача взрослых – контролировать как используется ИИ и напоминать, какие правила нужно соблюдать при работе с нейросетью.

← Прошлая статья Назад в блог Cледующая статья →