Chat GPT

Этика искусственного интеллекта

Chat AI
#chatgpt #бесплатно
image

Чем быстрее развивается ИИ, тем больше вопросов стоит перед человечеством. И первый из них - этический. Например, когда и при каких условиях применение искусственного интеллекта обосновано, насколько безопасно доверять программе сбор, обработку данных и кто будет отвечать за неправомерные, ошибочные действия ИИ.

Проблема усложняется тем, что разработка, внедрение ИИ не регламентируются законом. Хотя о необходимости контроля за технологиями в сфере ИИ говорил Илон Маск в 2017 году, еще до бешеной популярности чата GPT.

Принципы

Поместить работу тех же нейронок в рамки законодательства пока вряд ли возможно из-за слишком быстрого развития. Но нормы, которые бы помогли определить этичность применения ИИ все же есть. Пусть пока они принимаются локально, в каждой стране.

Главные принципы – это:

  • безопасность для человечества – формулировки разные, но пункт о защите персональных данных есть везде;
  • прозрачность для пользователей – суть в том, что человек должен понимать, что взаимодействует с ИИ при общении в чате или запросе консультации на сайте;
  • честность, непредвзятость при принятии решений – без учета факторов, вроде пола, материального или семейного положения, возраста, национальности ;
  • подотчетность для общественности и создания мер “мягкого” государственного контроля;
  • ответственность разработчиков за действия ИИ – от неверных рекомендаций, до их возможных последствий.

Кроме государства, проблемой этики занимаются и сами создатели технологий. Компании-разработчики готовят внутрикорпоративные регламенты, либо объединяются в альянсы, подчиняющиеся локальным стандартам.

Кодекс 

Этот документ, регулирующий сферу технологий сильно отличается от стандартных юридических нормативов. И часто это – рекомендации, невыполнение которых не влечет ответственности для нарушителя.

В общей сложности нормы при обращении с технологией ИИ разработали порядка 10 стран. В 2021 году кодекс этики в сфере искусственного интеллекта был принят в КНР. В нем большое внимание уделено управляемости ИИ, контролю и расширению прав человека.  В документе указано, что пользователи могут сами ограничивать взаимодействие с ИИ, управлять или запрещать доступ нейросетей к персональным данным.

В США подготовкой правил занялось Министерство Обороны. В них упор на надежность, беспристрастность, безопасность алгоритмов для человека. А также проработку методов по единовременной деактивации, отключения программного обеспечения.

А что в России

Кодекс этики искусственного интеллекта в России был подписан 26 октября 2021 года. Подписантами стали 187 компаний, среди которых Сбер, Яндекс, Циан, ВК, ВТБ.

Документ рекомендательный, а правила содержащиеся в нем распространяются на все этапы взаимодействия с ИИ в течение жизненного цикла ПО. От стадии идеи, до разработки, внедрения и закрытия проекта. Основные принципы этики искусственного интеллекта:

  • гуманистический подход, в котором высшая ценность – это интересы человека (общества и личности);
  • уважение к свободе воли человека, исключение негативного или непредсказуемого воздействия на творческие, когнитивные способности;
  • законность и соответствие ПО действующим нормативным актам во всех областях юридического права (авторского, административного, уголовного);
  • недискриминация по любому признаку – пол, возраст, семейное или материальное положение (для алгоритмов систематизирующих данные отдельных групп пользователей);
  • оценка рисков, последствий внедрения.

Правила кодекса рекомендуют разработчикам принимать меры по обеспечению защиты ПО от вмешательства третьих лиц, давать правдивую информацию об ИИ и уведомлять пользователей о том, что они взаимодействуют с ПО, а не с человеком. А также не передавать программе полномочия принимать решения или перекладывать на нее вину за неверные рекомендации. Поскольку ответственность за действия ПО несет человек.

Авторы также призывают разработчиков- объединяться в альянсы, создавать комиссии, чтобы дополнять правила, делиться рабочими или неудачными практиками решения вопросов, возникающих на всех этапах жизненного цикла ПО.

Почему это важно

До повсеместного внедрения машинной обработки информации еще далеко, полноценного ИИ пока нет. Но даже с нейронками уже возникают проблемы. Например, алгоритмы, использованные для рекрутинговой компании дискриминировали женщин - 60 % одобренных кандидатов на свободные вакансии были мужчинами. Просто потому, что анализировали предыдущий опыт компании, а не оценивали параметры кандидатов.

Второй пример связан с медициной. Нейросети доверили проанализировать данные пациентов и определить кому из них нужна дополнительная помощь. Работа была выполнена, но оказалось, что при отборе программа учитывала не истории болезни, а материальное положение пациентов.

Ясно, что вины самого ПО здесь нет. Нейронки обучают люди, и программа “перенимает” все человеческие недостатки. Но подобные ошибки обработки данных, на основании которых будут приниматься любые значимые решения, недопустимы.

Еще одна проблема нейросетей – вброс ложной информации в инфополе. Это псевдонаучные статьи, с неправильными датами или выдуманными исследованиями или даже новости. То есть задача по манипуляции общественным сознанием упрощается в разы.

Чего стоит скандал, случившийся в конце мая 2023 года с завирусившимся в сети фото, на котором якобы изображен взрыв Пентагона. Опровержение власти дали быстро. Но паника в соцсетях докатилась и до финансовых рынков, обвалив индексы крупных компаний. Кто дал задание нейросети сгенерировать фотографию и зачем это было сделано - неизвестно.

Чтобы сократить риски в любой области, будь то тексты или фото на новостных сайтах, автоматическая обработка данных или любое взаимодействие с ИИ нужны правила. И разработка регламентов, пусть пока содержащих общие рекомендации, это только начало.

← Прошлая статья Назад в блог Cледующая статья →