Chat GPT

Почему нейросети опасны?

Chat AI
#chatgpt #бесплатно
image

По поводу опасности ИИ строится много теорий. Кто-то настаивает на том, что искусственный интеллект может сильно упростить жизнь, а кто-то прогнозирует реализацию сценариев из фантастических фильмов.

Опасность нейросетей

Джеффри Хинтон – ученый, программист, считающийся крестным отцом ИИ, занимавшейся разработкой алгоритмов с 1970 года заявил об опасности искусственного интеллекта. Если тезисно, то основные из них:

  • вброс фейков;
  • применение ИИ в преступных целях;
  • стремительное обучение, развитие технологии при отсутствие точного понимания внутренних процессов.

Системы, генерирующие информацию могут заполнить интернет, вводя пользователей в заблуждение. Люди просто не смогут определить где правда, а где ложь. Еще одна причина почему нейросети опасны – этот инструмент могут использовать в своих целях злоумышленники. И как бороться с этой угрозой – неизвестно.

В чем главная проблема

Нейронные сети становятся умнее и могут генерировать контент, практически неотличимый от созданного человеком. Это могут быть новости, “научные” работы, репортажи и фотоматериалы.

В чем здесь проблема для общественности. Сеть генерирует тексты с учетом правил индексации поисковых алгоритмов. Это значит, что любая, даже фейковая информация будет выдаваться в первых строках поисковиков и активно распространяться. А чем больше сгенерированных текстов, тем сложнее понять, какую статью написал человек, опираясь на знания и аналитику, а какой - алгоритм.

Например, в 2020 году на одном из сайтов была опубликована псевдонаучная статья по психологии, сгенерированная ИИ. Владельцы ресурса просто хотели проверить возможности платформы. И никто из подписчиков не заметил подмены.

А научная статья о пользе приема внутрь битого стекла, с доказательной базой, ссылками на научные исследования, мнения экспертов была создана по запросу пользователя языковой модели Galactica. Она же приводила факты о полетах медведей в космос или путала даты, имена участников исторических событий. Платформа в итоге была закрыта через 2 дня после запуска из-за многочисленных жалоб пользователей.

Вторая проблема – компрометация персональных данных. Например, исходный код языковой модели LLaMA был опубликован на Reddit через 2 недели после официального анонса. Специалисты по кибербезопасности предупредили пользователей, что такие системы могут использоваться для персонализированного спама или фишинговых атак.

Третья проблема – влияние на качество образования. ChatGPT студенты используют во время обучения и для генерации курсовых, дипломных работ.

Где запретили нейросети

Первой страной, запретившей ChatGPT стала Италия. Причиной стал сбой сети, в результате которого участники чата видели чужие сообщения и получили доступ к данным платежных сервисов и банковских карт.

Ограничения коснулись и разработчиков. Компании OpenAI запретили собирать, обрабатывать персональные данные итальянских граждан. Также итальянское национальное управление по защите персональных данных подчеркнуло, что OpenAI собирает информацию о подписчиках сервиса без их ведома и не проверяет, соответствуют ли подписчики заявленному возрастному цензу 13 +.

Утечка произошла в марте, а в апреле к платформе вновь открыли доступ, несмотря на то, что далеко не все требования регулятора были выполнены.

В мае этого года тот же ChatGPT под запретом гиганта Samsung, правда временный и только в рабочее время. Ситуация получилась глупой - сотрудники, решившие упростить себе жизнь, скормили боту часть исходного программного кода и делились в чате заметками с рабочих совещаний. Все – это коммерческая тайна.

Утечки не было, но исходные данные сохраняются и при правильно сформулированном запросе могут попасть в руки конкурентов.

Компания Apple запретила сотрудникам пользоваться сетями для генерации текста и программного кода GitHub Copilot. Поскольку данные сохраняются на серверах разработчиков, а это риск утечки конфиденциальной информации.

Доступ к ChatGPT заблокирован в нью-йоркских школах, поскольку преподаватели уверены, что чат плохо влияет на учебный процесс. Школьники используют ИИ, чтобы не учить домашнее задание.

Китайские власти выдали предписание местным компаниям, в частности гигантам Alibaba, Tencent о блокировке предоставления доступа к чату GPT. Здесь причина проще - платформа обходит цензуру, выдавая не согласованные с властью ответы на запросы. Сами компании отметили, что не стали бы пользоваться ИИ из-за некорректности и частых фактологических ошибок в ответах системы.

Как итог – нейросети прочно вошли в нашу жизнь и это правда очень сложный и мощный инструмент, решающий сложные задачи. Но опасаться, что ИИ получит контроль над человечеством, наверное, не стоит. Все-таки искусственный интеллект - это алгоритм, работа которого полностью зависит от человека.

← Прошлая статья Назад в блог Cледующая статья →